DirtyDenys

Home

Aller au menu | Aller à la recherche

Category most powerful handgun

Fil des billets Fil des commentaires

radarisme

, 19:05

Au commencement était le Traffipax. Apparu en France dès la fin des années 1950, ce dispositif que l'on jugerait de nos jours bien rudimentaire avait pourtant exactement la même fonction que les multiples générations de cinémomètres qui l'ont supplanté. Il visait en effet à constater de manière irréfutable une infraction routière, en matière de vitesse par exemple, en associant deux preuves de l'infraction en question : une mesure, et une image, sinon du contrevenant lui-même, du moins du véhicule qu'il conduisait. Les perfectionnements successifs du concept comme des outils ont abouti à cette espèce d'arme absolue, le contrôle-sanction automatisé, qui s'appuie désormais sur un large éventail de radars-enregistreurs. Ceux-ci assurent dissuasion, sanction, publicité, et justification d'une politique de sécurité routière réduite à une unique composante, la vitesse excessive. Et plus rien n'échappe à ce système automatique qui punit à distance et à l'économie, puisqu'il évite de déployer des forces de police sur le terrain.

Ce processus aujourd'hui entré dans les mœurs vaut comme un modèle, et on comprend qu'il soit tentant de le dupliquer, quand bien même cela impliquerait de l'étendre à une grandeur physique autrement plus complexe à mesurer que la vitesse : le son. C'est à cette tâche que s'est récemment attelé l'un de ces organismes hybrides qui encombrent les marges de l’État, Bruitparif, association en charge de missions d'intérêt général. Née observatoire du bruit à Paris, elle s'occupait déjà de promouvoir un sonomètre complexe de sa conception, la Méduse ; et elle vient de passer à l'étape suivante et d'installer, à la destination expresse des suspects habituels, un dispositif qu'elle qualifie sans complexe de radar sonore et qui, muni de têtes supplémentaires lui permettant d'accomplir sa fonction répressive, se trouve fort logiquement baptisé Hydre. Mais cette innovation ouvre quantité de questions, la moindre n'étant pas que son concepteur, qui a tout intérêt au succès de sa machine, soit également chargé de mesurer l'efficacité de celle-ci.

Or, Bruitparif est une entité connue des politistes et sociologues grâce aux travaux de Philippe Zittoun. Ceux-ci décrivent la genèse de ce problème de santé publique d'apparition tardive, le bruit urbain, et analysent en détail la façon dont celui-ci s'est imposé au moyen d'un outil largement diffusé et qui fonctionne "comme une ressource et comme une preuve", la carte parisienne du bruit. Couvrant désormais une bonne partie de l'Île-de-France, celle-ci conserve sa propriété originelle de s'intéresser exclusivement au bruit routier, avec, par exemple, comme conséquence inattendue de transformer les pistes de l'aéroport d'Orly en une verte oasis de tranquillité.
Un tel tropisme menait inévitablement de la constatation à la répression, pour peu qu'une condition soit remplie : quantifier les dommages causés à la santé par l'exposition au bruit, et de préférence à l'aide d'un chiffre qui fait peur. Naturellement, aucun acteur n'est plus légitimement qualifié pour ce faire que l'OMS. Aussi la, disons, pittoresque lettre d'informations de Bruitparif triompha-t-elle début 2019 en exposant les dernières recommandations de l'organisation internationale, illustrées de courbes détaillant les relations entre niveau de bruit et pathologies diverses. Certes, les cartes publiées dans ce bulletin montrent bien que les victimes se trouvent essentiellement là où on les attend, c'est à dire dans les zones de survols aéroportuaires, mais qu'importe : c'est la route, vous dit-on et, d'abord et avant tout, les motos.

Le monde se porterait bien mieux s'il était enfin débarrassé des petits voyous adeptes de l'échappement racing. Très nuisibles, il sont également très peu nombreux, ce qui rend les rares opérations de contrôle policières peu efficaces et bien peu rentables. Aussi est-il tentant de croire en l'automatique.
Peut-être nourrie, auprès du grand public comme des politiques, de cet imaginaire hollywoodien naïf où le héros perçoit distinctement les paroles du terroriste au milieu d'un brouhaha infernal grâce à un micro-canon alors que, dans les faits, ces outils sont à peine plus directifs et bien plus encombrants que le traditionnel MKH416, la croyance en l'efficacité des capteurs de Bruitparif risque de percuter le mur de la physique. La faute à ces saletés d'ondes sonores avec leur pernicieuse tendance à se propager dans tous les sens, à le faire même après avoir rebondi sur un obstacle et, en plus, à se comporter différemment en fonction des fréquences. Il devient alors très difficile de situer exactement l'origine d'un bruit, et de mesurer précisément son amplitude. Ce pourquoi les normes d'homologation des motocycles nécessitent l'application d'un protocole strict et impossible à reproduire dans la vie courante. Les forces de police ont alors recours à une autre méthode, laquelle implique, entre autres contraintes, de disposer le sonomètre à cinquante centimètres du pot d'échappement. Et l'absence de respect d'une de ces exigences invalide la mesure.

On le voit, on se situe vraiment très loin des pratiques de Bruitparif qui préfère disposer ses capteurs plusieurs mètres au dessus de la source de bruit. Et prétendre reconstituer à l'aide d'algorithmes, comme le fait déjà l'association pour dresser sa carte du bruit urbain, le niveau sonore en sortie de pot satisfera peut-être le statisticien pas trop regardant sur les intervalles de confiance, mais pas le pénaliste qui exigera une mesure fiable pour un véhicule précisément identifié. Attraper de temps à autre un bandit solitaire perturbant le sommeil de l'honnête citoyen ne justifiera pas le coût du déploiement d'un tel dispositif. Compte tenu de tous ces obstacles, on comprend que, confronté à l'indépassable réalité physique, le mimétisme trouve ses limites. Méduse ou hydre, ces bidules ont toutes les chances de rester avant tout des chimères.

chips

, 19:09

Dans le bouillonement des années 1980, cette courte parenthèse durant laquelle certains avaient encore le courage, ou l'inconscience, de croire en l'avenir, de multiples manières d'informatiser les individus à l'aide de machines aussi rudimentaires que peu coûteuses ont vu le jour. Dans la grande tradition du génie national, la France a ainsi associé les produits d'une petite division d'un grand conglomérat, les Thomson TO7 et MO5 équipés de processeurs Motorola, à une noble cause, l’alphabétisation informatique des collégiens. Bizarrement, ça n'a pas vraiment marché.
La Grande-Bretagne, au même moment, poursuivait un objectif similaire en suivant un chemin différent. La BBC lança un vaste programme éducatif, lequel comportait une composante matérielle avec un micro-ordinateur conçu par une jeune entreprise locale née dans les laboratoires de l'université de Cambridge, Acorn Computers. Celle-ci développa ensuite une architecture spécifique destinée à un microprocesseur simple et économe en énergie, lequel suscita l'intérêt d'Apple. Avec l'appui d'un autre partenaire et un effectif de douze ingénieurs installés dans une grange, ARM vit le jour en novembre 1990. L'entreprise inaugura ainsi un modèle aujourd'hui répandu, concevoir et développer un type original de microprocesseur sans pour autant disposer des usines nécessaires à la fabrication du produit fini. ARM tire ses ressources de sa propriété intellectuelle, vendant ses licences aux producteurs de composants, lesquels fournissent aujourd’hui tous les fabricants de téléphones mobiles, de tablettes et autres bidules autonomes c'est à dire, en fait, le monde entier.

À l'autre extrémité du spectre, on trouve avec le néerlandais ASML une autre entreprise européenne qui bénéficie également d'une position totalement dominante dans ce même secteur. Née en 1984 dans l'ombre de Philips, la société développe des machines de photolithographie qui travaillent aujourd'hui dans l'extrême ultra-violet, permettant ainsi aux fondeurs les plus performants, et en premier lieu au taïwanais TSMC, de fabriquer des puces dont la finesse de gravure atteint aujourd’hui trois milliardièmes de mètre. Ce succès profite à ses sous-traitants ailleurs en Europe, tels l'allemand Carl Zeiss qui lui fournit des optiques, ou CNIM laquelle fabrique des bâtis pour ses machines dans son usine de La Seyne-sur-Mer. Avec ses outils prodigieusement complexes et excessivement chers, mettant en œuvre la technologie la plus stratégique du globe, ASML dispose désormais d'un quasi-monopole protégé par une vertigineuse barrière à l'entrée ; un rêve de capitaliste, en somme.

En France, à un niveau plus modeste, on peut citer le cas d'un autre leader mondial dans cette même activité. Appliquant des recherches menées au sein du célèbre Leti, laboratoire du CEA spécialisé dans les nano-trucs, Soitec produit des substrats de silicium selon une technologie particulière, laquelle permet ensuite de fabriquer des composants très économes en énergie ce pourquoi, là encore, on les trouve dans une grande variété de dispositifs autonomes.

Mais le paysage européen ne se limite pas à ces quelques spécialistes au succès planétaire. On y trouve une assez grande variété d'entreprises triturant du silicium, qu'il s'agisse des gros généralistes comme l'allemand Infineon, né chez Siemens, le néerlandais NXP naguère division semi-conducteurs de Philips ou le franco-italien ST Microelectronics, issu de la fusion de l'italien SGS, d'ascendance Olivetti avec, inévitablement, Thomson Semiconducteurs, mais aussi d'autres acteurs moins connus, tels l’équipementier ASM, un néerlandais de plus.
Née parfois dans les temps reculés des premiers transistors, héritière de l'époque héroïque des tubes, bénéficiant des recherches conduites dans les laboratoires des universités aussi bien que dans les entreprises elle-mêmes, cette industrie prolifique, compétitive et rentable se déploie ainsi à travers tout le vieux continent.

Alors, que vient faire dans l'histoire cette initiative de la Commission européenne, mêlant comme souvent déplorations, rodomontades et solutions technocratiques visant à résoudre un problème dont on vient de montrer qu'il n'existait pas ? Qu'est donc cette histoire de dépendance aux "microprocesseurs les plus avancés fabriqués en Asie" évoquée par la présidente de la Commission ? Elle fait, on l'imagine, allusion à TSMC qui se trouve être, effectivement, en ce moment, la société la plus avancée en matière de production de microprocesseurs, au point même de devancer Intel. Sauf qu'il ne s'agit que d'un sous-traitant, qui produit pour AMD, Apple, et d'autres, et un sous-traitant intégralement dépendant des progrès accomplis par son fournisseur essentiel, ASML.

Isoler un maillon dans cette longue chaîne qui parcourt le globe, en faire un exemple à suivre pour les cancres européens qui ne devront leur salut qu'à la sollicitude des institutions européennes et à leurs poches profondes dont elles se déclarent prêtes à répandre généreusement le contenu montre une méconnaissance totale de processus industriels issus d'initiatives largement privées et élaborés pragmatiquement et sur le long terme, mais aussi une tendance certaine à la condescendance. Et voir un Thierry Breton, malgré sa rare et incontestable compétence en ces matières, vanter l'Europe avec "la qualité et la robustesse de sa production électrique" en ces heures de black-out menaçant ne manque pas d'une certaine ironie.
Il n'a jamais existé d'industrie plus lourde que celle qui fabrique des microprocesseurs. Ses exigences, énormes, ne se limitent pas à lever des capitaux ; il lui faut aussi impérativement disposer d’infrastructures efficaces et de main d’œuvre qualifiée, mais aussi de ressources locales adaptées, d'eau en particulier, en bref de tout un environnement caractéristique des seuls pays les plus avancés. Que les institutions cessent de jouer les visionnaires ou les censeurs et se contentent, modestement, de répondre aux besoins des administrés, et tout le monde s'en portera mieux.

casse

, 19:14

Le 1er juin dernier, la Métropole du Grand Paris a lancé la phase 2 de la ZFE : sur le territoire transpercé par l’autoroute super-périphérique A86, où vivent un peu plus de 5,6 millions d'habitants, les propriétaires de motocycles, automobiles ou utilitaires labellisés Crit'Air 4 et moins n'auront plus le droit d'utiliser leur véhicule autrement que durant la nuit, et pendant le week-end. Ainsi, le grand jeu commence. Après les premières escarmouches, les restrictions se renforcent, la cadence augmente, et le bouleversement s'annonce massif puisque, au 1er janvier 2024, les interdictions frapperont jusqu'à la vignette Crit'Air 2. Un tel programme, qui vise à améliorer la qualité de l'air en supprimant une source locale de pollution atmosphérique, n'a de justification que sanitaire, et refuse donc de prendre en compte tout autre paramètre. Pourtant, cet arbitrage produira, s'il est suivi d'effet, des conséquences lourdement délétères.

Pour les étudier, on s'aidera d'un document remarquablement détaillé, élaboré pour l'occasion par la structure d'études urbaines de la ville de Paris, l'APUR. L'association a mis en ligne plusieurs cahiers analysant les justifications de la ZFE, et son impact sur les habitants, en commençant par la raison d'être du dispositif, la santé. Pour ce faire, il résume un rapport de l'Observatoire régional de santé, lequel se contente pour l'essentiel d'acclimater une fameuse étude, plus ancienne et plus large, menée par Santé publique France, et dont la méthodologie a fait l'objet d'une critique toujours pertinente. Peu adepte de la nuance, l'Observatoire attaque fort : il l'affirme sans ambages, chaque année, la mauvaise qualité de l'air tue 6 600 des sept millions d'habitants que compte la métropole. Il faut l'avouer, le chiffre surprend un peu : on n'avait pas l’impression de suffoquer à se point, entouré d'un brouillard toxique digne du grand smog de Londres de 1952. En 2019, les quatre départements inclus dans la métropole ont recensé 41 499 décès : 16 % d'entre eux seraient donc dus à la mauvaise qualité de l'air.
Étonnement, rapporte le surveillant de l'air en Île-de-France, AIRPARIF, seulement 1 % de la population francilienne, soit de l'ordre de 100 000 personnes, se trouve aujourd'hui exposée à des dépassements des valeurs limites de polluants tels le dioxyde d'azote. En 2007, voilà même pas quinze ans, cette proportion s'élevait à 30 %. En bonne logique, et pour recycler un argument déjà employé voilà longtemps, cette année-là, en comptant à la manière de l'Observatoire, la pollution a tué plus de 200 000 métropolitains. Or, en 2007, nous dit l'INSEE les départements de la métropole ont enregistré un total 39 313 décès.

Absurde en apparence, une telle spéculation reste parfaitement valide, puisqu'elle reprend simplement le modèle issu de l'OMS que l'Observatoire emploie, et qui postule une relation linéaire entre niveau d'exposition aux polluants, et nombre de décès. En fait, l'Observatoire se comporte comme le petit soldat d'une politique qui instrumentalise une unique variable, la santé, au profit d'un agenda plus global. Oubliant au passage que, si l'on souhaite profiter au cœur d'une métropole de douze millions d'habitants d'un air identique en qualité à celui d'une ville comme Aurillac - et encore que l'écart ne soit pas si flagrant - il faille s'attendre à disposer d'une offre comparable en matière d'emploi, d'accès aux soins ou de divertissements, l'Observatoire distord la réalité, ne retenant par exemple que le polluant qui l'arrange, le dioxyde d'azote, là où l'on avait plutôt coutume de s'inquiéter des particules fines. Mais, émis pour l'essentiel par les moteurs thermiques, ce gaz permet de désigner un coupable à portée de main. Et cette approche purement sanitaire néglige des conséquences autrement plus importantes, d'ordre économique et social. Heureusement, là encore, le précieux document de l'APUR permet de tenter une évaluation.

Ne frappant pour l'instant qu'un petit nombre de véhicules particuliers relativement anciens puisque les plus récents, répondant à la norme Euro 3, sont vieux d'au moins quinze ans, le déploiement à marche forcée de la ZFE va très vite amplifier ses nuisances. Au 1er janvier 2024, soit dans moins de trente mois, la prohibition atteindra la vignette Crit'Air 2 : celle-ci concerne toutes les automobiles à moteur diesel, et les automobiles à essence norme Euro 4. Pour les motocycles, il s'agit de la norme Euro 3, restée en vigueur de début 2004 à fin 2016 ; les motos les plus récentes dont l’utilisation sera interdite auront alors sept ans. Grâce à l'APUR, on peut estimer le nombre de véhicules touchés : en se limitant aux véhicules particuliers, la zone comprend actuellement environ 210 000 automobiles Crit'Air 4 et 5, 463 000 Crit'Air 3 et 868 000 Crit'Air 2.
On mesure avec quelle vitesse, et quelle force, la nocivité du dispositif va croître. Fatalement, ces restrictions toucheront massivement les plus pauvres, et l'étude de l'APUR permet d'évaluer les dégâts commune par commune. Ainsi, à Saint-Denis, au 1er janvier 2024, la prohibition touchera 80 % du parc automobile, et 95 % du parc moto : huit véhicules particuliers sur dix, dix-neuf motos sur vingt. Face à cette spoliation massive, l’État ne propose rien d'autre que des primes au véhicule propre. Pour les ménages non imposables, le cumul des aides à l'achat d'un véhicule électrique peut ainsi atteindre jusqu'à 19 000 euros. En Seine-Saint-Denis, rapporte l'INSEE, les ménages en question représentent 53 % des foyers fiscaux : alors, dans les trente mois, pour retenir l'hypothèse maximaliste ou, pour le dire autrement, pour raisonner à la manière de Santé publique France, il faudra réussir à financer plus de 15 milliards d'euros.

On l'aura compris, une telle politique n'a que faire du monde réel. Nécessairement, en très grand nombre, et plutôt que de les envoyer à la casse, automobilistes et motocyclistes continueront de rouler avec leurs engins interdits, au risque de l'amende. Et quand bien-même se convertiraient-ils à l'électrique que se poserait alors, dans la ville dense, le problème de la recharge. Construire l’indispensable infrastructure de production et de distribution d'électricité, c'est le genre de tâche dont se chargeait autrefois l’État des autoroutes et du TGV ; aujourd'hui, il semble plutôt placer ses espoirs dans la magie.
Plutôt que d'affronter le complexité du monde, les politiques, et la presse, exploitent ad nauseam un réservoir restreint de fictions dont ils connaissent et les impacts et les effets sur le savoir de sens commun de la population. Une des caractéristiques de l'heure tient au fait que ce corpus soit figé, et qu'il faille donc trouver en permanence de quoi maintenir une vision du monde rendue caduque par les progrès accomplis, laquelle implique de jouer des mises en scène de plus en plus absurdes, comme lorsque l'on fabrique un événement mondial avec un accident d'ampleur limitée qui se produit au Sri-Lanka. En Île-de-France comme ailleurs, la qualité de l'air n'a jamais été meilleure depuis que l'on dispose de relevés réguliers, et ceux qui, sincèrement, en doutent, peuvent compter sur le réseau Copernicus pour se rassurer. Bien au-delà de l'optimum raisonnable, les quelques progrès que l'on tente encore d'assurer seront acquis à des coûts exorbitants. Quel politique aura enfin le courage du retour à la raison ?

entre-deux

, 19:26

Avec la hausse du recours aux deux-roues motorisés dans les grandes agglomérations durant les années 1990, une pratique s'est développée sur les axes autoroutiers qui desservent les métropoles, et en particulier sur cette artère que l'on présente comme la plus fréquentée d'Europe, le boulevard périphérique parisien : pour échapper à la congestion des heures de pointe, rouler entre deux files de véhicules à quatre roues. Elle s'est assez rapidement organisée avec la collaboration tacite des usagers en question : sur la voie extérieure, les automobilistes serrent à gauche, sur celle d'à côté, à droite, dégageant ainsi un espace qui facilite la circulation des deux-roues. Motocyclistes qui réduisent fortement la durée de leur trajet quotidien, automobilistes dont aucun n'ignore que, si les deux-roues n'existaient pas, la durée de leur trajet à eux serait, au minimum, doublée, tout le monde y trouve son compte. Une pratique spontanée étrangère à tout cadre réglementaire qui s'institutionnalise sans que l’État y soit pour quoi que ce soit, voilà exactement ce qu'il déteste. Et un bon moyen de résoudre le problème consiste à autoriser le comportement en question.

Ainsi, en décembre 1999, un décret tolérant "la circulation d'un deux roues à moteur entre les deux files les plus à gauche" sur une route comportant au moins trois voies était rédigé. L'opposition virulente de certains acteurs, police et gendarmerie en particulier, le retour aux affaires d'un gouvernement de droite en mai 2002 mit fin à cette rare tentative d'adopter une position libérale. Difficile pour autant d'ignorer le réel, et les récriminations des éternels insatisfaits ; aussi l’État eut-il alors recours à une autre façon de résoudre le problème : organiser une concertation, et commander une étude.
Faisant appel à des motards volontaires et expérimentés, l'analyse des "comportements spontanés de conduite" donnera ainsi lieu à publication en octobre 2012. L’envergure limitée de la recherche, son caractère purement exploratoire inciteront à l’État à mettre en place une troisième manière de résoudre le problème : faute de résultat probant, lancer une nouvelle expérience, plus longue, et plus ample. Son principe consistait à autoriser, dans un cadre précis et sur un certain nombre d'axes, cette circulation inter-files, fournissant ainsi matière à analyse. Lancée en février 2016, elle vient de prendre fin. Parallèlement, le CEREMA, organisme en charge de l’étude, rendra publiques ses conclusions.

Fruit d'un travail fouillé, comme le montre la taille de ses annexes, ce document fait soigneusement le tour de la question, s'intéressant aux divers aspects du problème à l'aide d'observations in situ, d'une analyse des compte-rendus d'accidents, et d'enquêtes sous-traitées à des organismes de sondage. Et ses conclusions peuvent parfaitement se résumer d'une formule lapidaire : pas grand chose à signaler. Le respect des règles régissant la pratique de la circulation entre deux files, lesquelles imposent notamment de ne pas dépasser une vitesse de 50 km/h, reste approximatif, mais s'améliore au fil du temps, ce qui constitue une manière d'exploit puisque, comme le précise le rapport, les règles en question ont été explicitées sous forme de dépliants distribués aux usagers concernés au début de l'expérimentation, en février 2016 donc, et n'ont jamais fait l'objet d'un rappel depuis. Quant à l'accidentalité, elle reste, à la seule exception de l’Île-de-France où l'on constate une petite hausse, suffisamment faible pour que le bilan qu'en tire l'étude soit dépourvu de validité statistique. Rien de neuf, en somme. Mais dans l’intervalle, profitant de la fin de cette période de tolérance, certains s'infiltrent. Visiblement à court d'idées, incapable d'inventer une quatrième astuce pour résoudre le problème, l’État devrait reconduire la solution précédente et commander une nouvelle recherche, prenant ainsi le risque d'entrer dans une boucle infinie.

Tout cela, pourtant, n'est que simulacre. En matière d'inter-files, l'étude qui importe a été réalisée voilà près de dix ans lorsqu'un des ancêtres du CEREMA, le CETE Île-de-France, a procédé à un comptage sommaire du nombre de motocycles en circulation sur quelques grands axes menant à la capitale. À l'heure de pointe matinale, vers 9h00, ceux-ci représentent sur les voies les plus chargées près de 40 % d'un trafic qui, nécessairement, s'effectue alors entre deux colonnes d'automobiles à l'arrêt. Personne, ni les divers usagers de la route, ni les autorités directement concernées, ni même les milieux politiques et économiques, n'ignore que les deux-roues motorisés, et leur façon de se déplacer dans les interstices des infrastructures, apportent un degré de liberté qui leur est propre et qui permet seul de conserver un peu de fluidité à un système qui serait, en leur absence, totalement engorgé.
Quant à la puissance publique, très tôt, en abandonnant son premier projet de décret, elle avait fait un choix au fond assez classique, celui de l'entre-deux, de la zone grise du ni spécifiquement interdit ni explicitement autorisé qui lui laisse une totale liberté d'action et lui permet, en toute tranquillité et sans craindre de conséquences judiciaires, de se comporter de manière arbitraire, sanctionnant ou pas, réprimant plus ou moins sévèrement selon l'agenda de tel ou tel acteur et l'humeur du moment. Pourtant, il arrive que, lorsqu’il s'agit d'adopter un ensemble de dérogations au code de la route parfois assez radicales, par exemple le droit de ne pas respecter un feu rouge, ou de rouler en sens interdit, avec exactement le même objectif - faciliter la circulation d'une catégorie d'usagers de la route - les choses se passent le plus simplement du monde, pour peu que les usagers en question soient des cyclistes. Les motocyclistes circulant en inter-file ne mettent en danger qu'eux-mêmes et d'autres motocyclistes qui ont choisi de faire pareil, et ne demandent rien d'autre que d'ajouter trois lignes à un article réglementaire. À l'inverse, un cycliste exempté du respect du code de la route le fait au détriment d'autres usages vulnérables, et en particulier des piétons. Mais ceux-ci, on le sait bien, au même titre que les motocyclistes, ne comptent pas.

Enfin, pour conclure, et puisque les pouvoirs publics s'inquiètent à ce point de la sécurité des motocyclistes, on souhaiterait leur soumettre un autre sujet d'étude, plus original, qui devrait répondre à un question simple. En France, on dénombre de l'ordre de trois millions de motocyclistes, dont environ 600 sont tués chaque année sur les routes. En Espagne roulent approximativement trois millions de motocyclistes, et même 3,6 millions selon les dernières données disponibles avec, chaque année, environ 350 tués. Pourquoi ?

politique

, 19:18

Les dizaines d'années de recherches menées par d'éminents spécialistes à la renommée internationale ne suffiront pas à masquer cette tragique réalité  : les raisons de l'émergence d'un mouvement social, sa puissance, sa durée, son déclin, représentent autant de mystères insolubles. Tout au plus peut-on essayer d'être en permanence attentif et, lorsqu'ils se produisent, les prendre au sérieux, les observer, et tenter de les comprendre. Évidemment, la tâche sera d'autant plus difficile que la mobilisation adoptera des contours largement inédits. Mais, au premier jour, la brume se dissipe. Avant le démarrage de l'épisode des gilets jaunes, cette coalition impossible de gens qui, la veille, ne se connaissaient pas, on avait imaginé que leur mobilisation serait un succès si le nombre des participants dépassait les 50 000 manifestants. On le sait, ils ont été six fois plus nombreux. La raison pour laquelle un événement aussi massif n'a pas, dans un premier temps, entraîné de réaction significative des autorités reste inexplicable ; et la conséquence de ce déni, leur capitulation totale quelques semaines plus tard, inévitable.

Lorsque l'on aborde les questions suscitées par la difficile implantation sur le territoire métropolitain de familles immigrées provenant pour l'essentiel des anciennes colonies françaises, et que l'on s'intéresse aux destin de leurs enfants, on se retrouve à l'inverse en territoire connu. Apparues voilà des décennies, les contestations que ces derniers mènent de manière sporadique mais récurrente ont déjà été traitées, pour ne retenir qu'un élément dans une production significative, voilà plus de trente ans par Didier Lapeyronnie. Autant dire que, en première analyse, la manifestation du 2 juin dernier ne faisait que suivre, par la force des choses et la persistance des problèmes, un schéma déjà maintes fois employé. Et comme pour les gilets jaunes, il convient à la fois de s'intéresser à son remarquable succès, obtenu en dépit de conditions défavorables et en particulier d'une interdiction formulée quelques heures seulement avant son déroulement, technique que l'on dit habituelle chez ce préfet-là, et à la réponse que le politique pourrait lui apporter.

Une partie de ce succès tient au déplacement physique de la contestation depuis son espace originel, cette zone gendarmerie éloignée de tout et en particulier des caméras de télévision, vers la capitale. Que le palais de justice, lieu idéal pour exprimer des revendications de cet ordre, ait quitté le centre pour venir s'installer dans la zone, au nord de la porte de Clichy et à quelques mètres de cette banlieue-qui-fait-peur a pu, aussi, jouer un rôle puisque, moins accessible aux parisiens, il le devient bien plus pour ceux qui habitent autour.
En ouvrant ce que les spécialistes des mouvements sociaux appellent une fenêtre d'opportunité politique, l'affaire George Floyd permet par ailleurs de s'inscrire dans un mouvement bien plus vaste, et à la portée bien plus longue. Il n'empêche : le rapport de force ainsi créé, qui suscite l'intérêt au-delà des frontières, oblige le politique à réagir et, si possible, en allant au-delà du déni, et de la stigmatisation des vilains écoliers désobéissants qui n'ont pas respecté les consignes sanitaires. Comment peut-il s'acquitter de cette tâche qui, certes, n'a rien d'élémentaire ?

Réduire la question au cas d'espèce revient à emprunter une voie doublement sans issue. Lorsqu'une affaire sort du domaine judiciaire pour se transformer en cause, et en cause défendue par les familles des victimes avec tout un appareil de comités de soutien et d'expertises dissidentes, la raison politique s'efface : aucune autre conclusion que celle que les familles exigent ne trouvera grâce à leurs yeux, et elles s'enferment alors dans une sorte de réclusion mentale qui pourra durer des décennies. Au moins, l’obstination dont elles font preuve a eu ici un effet positif, celui d’agglomérer les rancœurs, les craintes, les déceptions qu'une partie de la jeunesse nourrit à l'égard de l'autorité policière. Que le politique ignore ce passage du particulier au général, qu'il n'essaye pas de répondre aux revendications ainsi formulées constituerait une faute aussi lourde que son erreur initiale face aux gilets jaunes.

Or, indépendamment de toute action gouvernementale, la procédure publique permettant de recevoir témoignages, doléances et explications existe : la commission d'enquête parlementaire. Le fait assez fondamental qu'elle ne puisse s'occuper d'affaires judiciaires en cours n'enlève rien aux pouvoirs dont dispose alors le parlement, dans le contenu de ce qu'il souhaite examiner, dans l'obligation faite à ceux qu'il désire entendre de répondre à sa convocation. L'opposition est riche de parlementaires qui se feront un plaisir sans doute un brin pervers de mettre sur pied une commission de cet ordre ; l'intelligence du pouvoir serait de ne pas s'y opposer ce qui, enfin, permettrait de se débarrasser en partie de cette impression aussi désagréable que persistante d'être gouverné par un troupeau de canards décapités s'agitant dans tous les sens.

fermeture

, 19:30

Remember Fessenheim. Transmis par téléphone, l’avertissement déconcertait les protagonistes de The Enforcer, le troisième épisode des aventures de l'inspecteur Dirty Harry Callahan. L'intrigue voulait que ce message soit l’œuvre d'un groupe terroriste extorquant une rançon à la ville de San Francisco, sous la menace d'attentats à la bombe. Il faisait référence à l'un de ses forfaits supposés, une attaque visant la centrale alsacienne. Le film datant de 1976, précédant donc d'un an la mise en service de la première centrale nucléaire française construite avec une technologie américaine, il pose une énigme difficile à résoudre, celle de savoir par quel mystérieux chemin et, plus précisément sans doute, par quelles obscures liaisons militantes cet événement lointain a bien pu tracer sa route jusqu'à rejoindre l'esprit d'un scénariste d'Hollywood. Il montre en tout cas que, avant même son ouverture, la notoriété internationale de Fessenheim était acquise.

Désormais, Fessenheim a atteint son stade terminal, sans que le gouvernement responsable de cet arrêt puisse présenter d'autre argument que le "parce que c'est comme ça". Les pitoyables justifications officielles se trouvent fort bien analysées dans ce fil, tandis que les conséquences pour les employés et la population alentours apparaissent dans cet article remis à jour de Teva Meyer où celui-ci montre le rôle central des implantations nucléaires pour les communes rurales qui les accueillent mais aussi, en creux, combien leur fermeture, malgré les promesses et les discours, les laissera démunies. Aussi va-t-on plutôt s'intéresser à la question en endossant le costume du naïf, et en essayant de comprendre comment certains arguments peuvent porter auprès du grand public. Commençons donc par le premier d'entre eux : la vétusté.

À la fin de l'année 1906, à bord d'un aéroplane de sa conception, Alberto Santos-Dumont réussit à voler sur une distance de 220 mètres. Trente ans plus tard, le premier Douglas DC-3 est livré à American Airlines. Aujourd'hui, presque 85 ans après, des dizaines de ces appareils, souvent équipés de leurs moteurs d'origine, sont toujours en service commercial. En 1909, Louis Blériot traversa la Manche aux commandes de son Blériot XI ; trois ans après son vol historique, la machine d'Alberto Santos-Dumont n'était plus qu'une pièce de musée.
Le développement d'une technologie nouvelle n'a rien de linéaire, ni de continu. Une fois passée l'étape du laboratoire, des prototypes, des premières applications, l'évolution peut être rapide, voire explosive, avant que la situation ne se stabilise autour d'une solution qui s'impose pour des décennies. Il en va de même avec la fission nucléaire, découverte puis expérimentée dans les années 1930 et 1940, appliquée dans le domaine civil en 1950 et 1960 avec des technologies variées que l'on regroupera sous le vocable de réacteurs de première génération avant que, dans les années 1970, l'implantation ne se généralise autour de trois ou quatre modèles. En France, on aura donc la seconde génération de réacteurs à eau sous pression, avec Fessenheim comme tête de série. Depuis, en gros, on en est là : l'EPR de troisième génération n'a rien de révolutionnaire, et, pour l'heure, la quatrième génération se décline pour l'essentiel sous la forme de multiples travaux de recherche.

La fermeture de la centrale ne se justifie donc ni par la nécessité technologique née d'une innovation révolutionnaire, ni par un impératif technique. Comme toutes les installations de ce type, elle peut fonctionner aussi longtemps que l'autorité de sûreté lui en donne le droit. Le temps long de l'industrie fait que, souvent, on cesse d'utiliser une machine seulement lorsqu'on ne trouve plus de pièces détachées pour assurer sa maintenance. Dans une centrale nucléaire, on fabrique ces pièces à la demande. Quant au moteur, les assemblages de combustible qui forment le cœur, on le change tous les dix-huit mois. En Russie, le troisième RBMK de Smolensk vient d'être prolongé pour quinze ans. Cette fermeture revêt, par contre, une forte importance symbolique, puisque, en agissant ainsi, le politique accrédite l'activisme antinucléaire, et déclasse d'un coup tout le parc actuel : le combustible du réacteur arrêté n'a pas encore eu le temps de refroidir que, déjà, les fossoyeurs s'attaquent à leur prochaine cible.

En 1984, avec Dancing with tears in my eyes, qui met en scène des bureaucrates en blouse blanche veillant négligemment sur un réacteur nucléaire dont l'accident va tout dévaster, Ultravox connaît un succès modeste en Grande-Bretagne. Après Three Mile Island et The China Syndrome, et avant Tchernobyl, le clip illustre la vision que le public d'une époque encore marquée par la guerre froide peut avoir d'une technologie où le terme de nucléaire n'évoque rien d'autre qu'une bombe, et où l'on peut facilement voir en chaque réacteur une menace d'anéantissement proche, dans le temps comme dans l'espace. Née dans la mouvance pacifiste antinucléaire, Greenpeace saura étendre son influence et se reconvertir avec succès, après la fin de la guerre froide, le désarmement, l'arrêt des essais atomiques dans le monde occidental, en une opposition efficace au nucléaire civil qui saura jouer de l'ignorance du public, et capitaliser sur les vagues notions tirées d'un passé meurtrier, et sur le flou délibéré de la distinction entre civil et militaire.
Tel est, au fond, le rôle des activistes, et des relais politiques qu'ils peuvent trouver dans les partis écologistes. Électoralement minoritaires, ceux-ci ne disposent que du pouvoir que les majorités leurs accordent, en monnayant âprement leur soutien. Le succès critique de leur idéologie anti-moderne se paye aujourd'hui dans bien des secteurs vitaux de l'activité du pays et, donc, à Fessenheim. Deux doctrines s'opposent aujourd'hui en Europe à propos de l'électronucléaire : la Grande-Bretagne, la Suède, la Finlande, la République Tchèque et la Slovaquie, la Roumanie et demain la Pologne ont décidé de continuer. L'Allemagne, la Belgique, la France arrêtent leurs réacteurs. Pour le pays stigmatisé comme le plus nucléarisé au monde, le prix de cette foucade sera sans guère de doute exorbitant. On aurait pu imaginer meilleur avenir que d'aller quémander un prêt auprès du FMI pour construire des surgénérateurs russes et des réacteurs au thorium chinois. Mais après tout, l'un dans l'autre, d'une manière générale, on n'a que ce qu'on mérite.

ailleurs

, 19:39

Dans la France bien organisée de la reconstruction d'après guerre mondiale et des Trente glorieuses, l’État centralisateur déployait son action grâce à diverses structures, chacune propriétaire d'un petit bout de problème, chacune dotée d'une compétence thématique précise, chacune, au fond, pièce d'un ensemble global à peu près cohérent, relativement efficace, et attaché aux réalités du terrain. Ainsi, pour tenter de développer autre chose que la seule capitale, une Délégation à l'aménagement du territoire vit le jour en 1963. Le ministère de l’Équipement, qui gérait alors, via ses directions départementales et leurs subdivisions, un maillage territorial étroit, disposait quant à lui de ses propres bureaux d'études, avec huit centres régionaux et une structure spécifiquement urbaine, le CERTU. Fusionnées, absorbées, dissoutes lors du toilettage intégral des années 2000, ces structures, et d'autres telles le SETRA, le service d'étude des routes et autoroutes, ont disparu, leurs restes étant éparpillés ici dans un Commissariat, là dans le CEREMA.
Malgré tout, l'activité perdure. L'Observatoire des territoires, rattaché au commissariat éponyme, vient ainsi de publier un document qui, sur la thématique très fréquentée des déplacements domicile-travail, mérite largement d'être commenté tant il se distingue, sur plusieurs plans, des publications routinières que l'on trouve ici ou .

S'ouvrant sur un aperçu à l'échelle européenne aussi court qu'intéressant, le rapport a comme première vertu de s'appuyer sur un corpus d'études méconnues. Depuis des décennies, les agents des organismes fusionnés aujourd'hui au sein du CEREMA réalisent, selon des modalités proches de l'étude périodique sur les déplacements de l'INSEE, des enquêtes s'intéressant aux déplacements des ménages dans nombre de zones urbaines. La base de données ainsi constituée souffre de défauts exposés dans le rapport, puisqu'elle s'étant sur un intervalle temporel assez large, et qu'elle manque d'exhaustivité, ne couvrant que 60 % de la population nationale. Il n'empêche : avec plus de 250 000 ménages retenus, elle offre une précision, et une robustesse, bien supérieures à l'enquête périodique de l'INSEE, laquelle ne recense que 21 000 ménages.

Il devient alors possible de décomposer de multiples manières la question des déplacements quotidiens. Assez souvent, les autorités vont à l'essentiel, et on caricaturera à peine en affirmant qu'elles ne s'intéressent guère qu'au mode, et à la durée, du transport des résidants de l’Île-de-France dans le trajet aller-retour quotidien qui leur permet de travailler dans la capitale. Le poids de la région, l'importance des effectifs concernés justifient certes un traitement spécial, et le rapport de l'observatoire n'y échappe pas, notant comme d'autres le temps particulièrement élevé perdu dans les déplacements, et l'importance des transports en commun. Mais il ne se contente pas de cette forme de programme minimum, et, en comparant les trajets en termes de kilomètres parcourus avec, d'un côté, l'Île-de-France et, de l'autre, le reste du pays, montre à quel point l'usage de l'automobile reste totalement dominant.
Si importante que soit la part des transports en commun dans la région capitale, elle reste un peu inférieure à celle de l'automobile. Et les utilisateurs de deux-roues motorisés qui, tradition du CERTU oblige, n'ont pas été oubliés dans l'affaire, parcourent quatre fois plus de kilomètres que les cyclistes. Ailleurs, tout change : la part des deux-roues, à moteur ou pas, passe du marginal à l'anecdotique, le recours à la marche se réduit tout en restant significatif, et l'automobile écrase tout.

Mais l'intérêt essentiel du document se trouve sans nul doute dans l'analyse détaillée qu'il propose de la mobilité rapportée aux catégories sociales. Ainsi, après les artisans et commerçants, les ouvriers fournissent le plus gros contingent d'automobilistes, et plus encore en Île-de-France que dans le reste du pays, et cela parce que leurs trajets s'effectuent essentiellement de banlieue à banlieue, alors que les réseaux de transports sont majoritairement concentriques. Les distinctions sociales associées aux déplacements se trouvent remarquablement résumées dans un graphique reproduit sur la page 25 du rapport, lequel associe, en fonction de la zone de résidence, habitats et emplois, et illustre les mouvements des uns vers les autres. En majorité, les actifs parisiens sont des cadres qui travaillent pour moitié sur place, et profitent donc de trajets très courts, pour moitié en banlieue. Les employés, la seconde catégorie la plus fournie, viennent principalement de banlieue. La capitale compte peu d'emplois ouvriers, et très peu de résidants appartenant à cette catégorie. Et là encore, Paris relève de l'exception : alors que, du fait de sa surface ridicule, on constate une énorme disproportion démographique entre la capitale et sa banlieue, la situation se révèle ailleurs bien plus équilibrée, avec une répartition équitable des habitants entre ville-centre et périphérie, et une structure sociale beaucoup moins concentrée, où emplois comme résidences des ouvriers sont distribués à peu près à égalité entre le centre et la banlieue, et même si le centre draine massivement des employés venus des alentours.

Noter que la hiérarchie spatiale est avant tout une hiérarchie sociale relève à l’évidence du truisme. Il en va de même avec la constatation selon laquelle, qu'il s'agisse des lieux d'habitation ou d'emploi, les contraintes s'empilent en raison inverse du capital, financier, culturel et social dont disposent les citoyens. Et, comme le rappelle le rapport, ces contraintes pèsent plus encore sur les femmes qui doivent le plus souvent, à côté de leurs activités professionnelles, gérer les tâches domestiques et familiales. Bien à l'abri dans ses paisibles quartiers centraux, on peut se donner le beau rôle, et jouer les donneurs de leçons perché sur son vélo. Mais pour la majorité, en province, en périphérie, il n'existe pas d'autre moyen de résoudre les problèmes chaque fois spécifiques des trajets quotidiens que le recours à un véhicule individuel à moteur thermique, lequel se trouve être, presque toujours, une automobile. Déclarer la guerre à ce mode de déplacement ne résoudra rien. Mais on peut toujours rêver de la voiture volante.

tribune

, 19:17

Un évident consensus se dégage pour voir en l'affaire Dreyfus sinon la naissance, du moins la consolidation d'une figure devenue depuis familière, celle de l'intellectuel, et plus précisément de son moyen d'expression favori, la tribune où il prend position sur un sujet qui, en principe, agite les foules. Ce mode d'action est devenu si fréquent, et si banal, qu’il nourrit une abondante littérature sociologique. Et puisque les sociologues sont coutumiers de l'exercice, leur fonction publique essentielle revenant, au fond, à fournir un diagnostic sur le monde social tel qu'il est, il était inévitable qu'ils produisent, dans une logique plus étroitement épistémologique, nombre de textes analysant cette pratique. Ainsi Nathalie Heinich, sociologue spécialiste des mondes de l'art, a-t-elle publié en 2002 un article dans lequel elle pose des distinctions pertinentes entre les diverses modalités d'intervention, plus ou moins étroites, plus ou moins légitimes, des chercheurs, et dans lequel elle défend, envers et contre tous, l'impératif de neutralité axiologique. Cet article ouvrira un riche débat, duquel on se contentera de retenir la contribution, toujours très claire, d'Erik Neveu, politiste spécialiste de la presse et des mouvements sociaux.

Équipé de ce petit bagage conceptuel, on va s'aventurer sur un terrain au premier abord dépourvu de danger, et s'intéresser à une intervention récente, L'objet, modeste, ne se retrouve pas en première page d'un quotidien dit de référence, mais plus obscurément sur des supports variés dans la presse francophone. Cette tribune en forme d'appel s'ouvre avec le rituel "nous" qui signale les prises de positions collectives, celles des sauveteurs d'ours polaires, des défenseurs de la noble profession d'expert-comptable, des promoteurs d'une vie saine, rurale et bien de chez nous. Le texte, très court, a malgré tout été rédigé par une vingtaine de signataires, ce qui laisse présumer des débats passionnés et des compromis durement négociés. Ces rédacteurs, de plus, généralement liés d'assez près aux sciences dures, partagent une même caractéristique, un relatif anonymat qui les situe à l'opposé des porteurs professionnels de paroles diverses, bons clients des débats télévisés et habitués des pages opinion des quotidiens. Autant dire que, en se limitant à ces quelques propriétés, on peine à percevoir quelle genre d’indignation un tel texte pourrait bien susciter.
Alors, si indignation, très circonscrite au demeurant, il y a, c'est qu'il se lance, sans souci des conséquences, à l'assaut de deux bastions.

Car cette tribune a une cible précise : une certaine forme de journalisme scientifique, qui, plutôt que de faire son travail lequel, en l'espèce, en plus d'informer le grand public de nouveautés significatives, doit clarifier des choses complexes qui ne sont pas à la portée du commun des mortels, préfère se mettre au service d'un nombre délimité de causes, et va alors picorer dans telle ou telle étude scientifique les résultats qui l'arrange, tout en négligeant ce qui pourrait invalider ses convictions voire même, précise la tribune, attribuer cette production de données qu'il ne veut pas connaître aux manœuvres obscures de quelque lobby.
La cible essentielle de cette attaque n'aura eu aucune peine à se reconnaître, puisque, dans ce grand quotidien du soir qui avait refusé d'accueillir le texte, une réaction vient d'être publiée dans un cadre qui ne doit rien au hasard, celui d'une rubrique qui a comme raison d'être de trancher les polémiques, et de dire la vérité. Cette réaction mérite quelques commentaires, tant elle ne fait, par la manière même dont elle s'applique à contourner les critiques, que les confirmer. Elle réduit d'abord le collectif ouvert des signataires soutenant l'appel aux seuls scientifiques qui l'ont rédigé, limitant ainsi sa portée et, donc, sa légitimité. Elle transforme ensuite l'accessoire, les sujets polémiques pris comme exemple par la tribune, en essentiel, analysant chacun d'un d'eux, jugeant celui-ci acquis, et celui-là contestable. Se contenter de cette énumération n'est qu'une manière d'éviter soigneusement de répondre sur le fond, un tour de passe-passe de joueur de bonneteau qui trompe le naïf en le faisant regarder ailleurs.

Mais au-delà de sa cible essentielle, cette tribune a entraîné des dégâts collatéraux, et provoqué un sévère rappel à l'ordre venu des gardiens d'une chapelle du grand temple épistémologique. Car en défendant l'aptitude de la science à produire des connaissances fiables ce qui, il faut bien l'admettre, représente un strict programme minimum, ses auteurs ont plongé la tête la première dans un nid de vipères. Sans le vouloir, ils se sont retrouvés en terrain hostile, sur le domaine de la sociologie des controverses initié par, et rassemblé autour de, Bruno Latour avec sa remise en cause relativiste du mode de fonctionnement des sciences dures. Partisans d'une mode d'élaboration de la science qu'ils qualifient, comme tant de choses de nos jours, de citoyen, mode illustré par des travaux comme celui que l'on a évoqué ici, les tenants de cette approche cèdent trop souvent à une furieuse compulsion qui consiste à dévaloriser les opposants qu'ils se sont donnés en les stigmatisant sous l'étiquette de scientistes.

Affrontant ainsi deux catégories d’adversaires aguerris, organisés, et rompus aux polémiques, les auteurs de la tribune paraissent bien démunis. Il ne forment en effet qu'une coalition lacunaire, regroupement de quelques individus privé d'assise institutionnelle. Pourtant, ils tirent leur force d'un point commun : au travers de divers canaux, les blogs, Twitter, YouTube, qui délaissent les dispositifs de publication traditionnels, nombre d'entre eux consacrent une partie de leur temps à rendre leur domaine de recherche ou d'expertise accessible aux profanes. Chacun dans sa spécialité, ils rendent ainsi le service que l'on attend d'un journaliste scientifique, fournir une interprétation valide, éclairée et accessible de phénomènes, et de technologies, redoutablement complexes. Ici, comme souvent, la manière la plus économique de faire tomber les bastilles consiste à les contourner.

cinétique

, 19:30

Un personnage secondaire d'un roman d'Heinrich Böll, bourgeoise âgée, rhénane francophile et francophone, affirmait ne rien lire d'autre dans les journaux que les pages locales. Sans prétendre s’astreindre à la même discipline, on se doit de constater que l'on y trouve des informations qui, a priori, ne sont reprises nulle part ailleurs, et méritent pourtant que l'on s'y attarde. Ainsi en est-il de cet article accessible sur le site en ligne du Parisien, lequel, au premier abord, ne fait que relater, sur le mode de l'exercice imposé, l'une de ces rituelles opérations de sécurité routière dans lesquelles la Préfecture de police, ici par la voix du préfet en personne, livre une fois de plus un dernier avertissement avant poursuites.
Elle comporte pourtant un élément étonnant puisque, répondant au journaliste du Parisien, Bruno Jouvence, commandant de police et chargé de la sécurité routière à la préfecture, précise que  : "L’an dernier" - en 2017, donc - "sur 13 piétons tués à Paris, trois l’ont été lors d’un choc avec un vélo." Provenant d'un fonctionnaire on ne peut mieux placé pour savoir exactement ce dont il parle, une telle affirmation n'en demeure pas moins surprenante.

Car la grandeur physique qui importe en matière d'accident de la circulation routière n'est pas tant la vitesse que l'énergie cinétique, d'où la gravité démesurée des accidents impliquant des camions. Autant dire que, à l'opposé, la bicyclette, le plus léger des véhicules autorisés à circuler sur la route, modeste auxiliaire qui se contente le plus souvent d'emporter un seul individu lequel, malgré quelques exceptions, a tout intérêt à rester aussi svelte que possible tout en se déplaçant à des vitesses réduites et généralement inférieures ou égales à 20 km/h, possède une énergie cinétique très faible. Aussi, quand bien même il entrerait en collision avec un piéton, il ne devrait pas lui causer de dommages considérables. Ainsi, à l'échelon national, le bilan des accidents de la route, pendant les quelques années où il a présenté une matrice mettant en regard les coupables et les victimes, ne recensait guère chaque année qu'un ou deux accidents mortels dans lesquels un piéton était tué par un cycliste. En Île-de-France, la DRIEA publie, elle, un bilan qui détaille ce genre de situation : en l'espèce, le seul cas avéré datait de 2014. Aussi attendait-on avec impatience l'édition 2017 de ce document, seule en mesure de confirmer les propos recueillis par le Parisien, et qui vient tout juste d'être publiée.

En 2017, nous apprend-elle, six piétons ont été tués dans des collisions avec des cyclistes, et seulement cinq avec les utilisateurs de deux-roues motorisés. Pour le dire autrement, en Île-de-France, les piétons victimes d'accidents mortels ont plus souvent été tués par des cyclistes que par des cyclomotoristes ou des motocyclistes. Une anomalie si radicale, quand bien même elle reste statistiquement peu significative, mérite bien quelques réflexions. Hélas, les données réellement pertinentes restant soigneusement protégées de la curiosité publique dans les placards des administrations concernées, celles-ci appartiendront pour l'essentiel au registre de la spéculation

Une partie de la gravité de ces accidents s'explique probablement par une caractéristique essentielle de la mortalité des piétons, l'âge : à Paris, en 2017, douze des treize piétons tués étaient âgés de plus de 65 ans. On peut fort bien supposer que les piétons victimes d'accidents causés par des cyclistes ont atteint un âge encore plus avancé, comme l'illustre cet acte impardonnable survenu voilà vingt ans : leur très grande vulnérabilité implique alors que le moindre choc puisse être fatal. Or, compte tenu du vieillissement de la population, un tel facteur va prendre de plus en plus d'importance.
Le succès de ce mode de déplacement récemment réintroduit dans les rues des villes, et la politique qui favorise fortement son développement en multipliant les aménagements tant physiques que réglementaires, entraîne sans doute aussi des effets de composition. On croise ainsi de plus en plus de vélos à assistance électrique susceptibles d'atteindre sans efforts violents leur vitesse limite, 25 km/h, ou bien des livreurs à vélo, vigoureux jeunes gens fort mal payés pour lesquels chaque seconde vaut, sinon de l'or, du moins quelques centimes, et qui, pour cela, prennent, et font courir aux autres, tous les risques. La banalisation d'autres pratiques, comme la circulation illégale sur les trottoirs, contribue sans doute elle aussi à cette dangerosité accrue des cyclistes envers les piétons.

Il serait évidemment fort intéressant d'en savoir plus : à cette interrogation, les autorités seules sont en mesure de répondre. Il reste, dès lors, à imaginer la suite, en prenant comme modèle le royaume que tous les cyclistes envient, les Pays-Bas. Là, l'usage universel du vélo a de lourdes conséquences en matière d'accidents. Le détail restant malheureusement réservé aux seuls néerlandophones, on se contentera de la vision sommaire qu'apporte le rapport annuel de l'International Transport Forum, dans sa section qui traite des Pays-Bas. Dans ce pays où, comme dans bien d'autres, la mortalité routière ne baisse plus depuis 2010, les automobilistes et leurs passagers représentaient, en 2016, 41 % des tués sur les routes, et les cyclistes, 30 %. Mais le rôle de ces derniers apparaît encore plus nettement si l'on s'intéresse aux seuls blessés hospitalisés, puisque deux tiers d'entre eux sont des cyclistes, victimes en majorité d'accidents n'impliquant pas de véhicules motorisés. Le nombre de ces blessés atteint en conséquence, depuis 1993, année où ceux-ci ont été comptabilisés pour la première fois, un plus haut historique.
Servilement repris par les politiques, l'argument sanitaire essentiel des activistes pro-vélo se résume en ce slogan selon lequel le principal danger de la bicyclette serait de ne pas en faire. Un propos aussi sommaire peut faire illusion tant que la pratique reste faible : son accroissement, sa diversification montrent que le risque qui l'accompagne ne concerne pas seulement ceux qui, après tout, l'ont choisi, mais, de plus en plus, et de plus en plus grièvement, les piétons, ces usagers vulnérables qui n'ont rien demandé, et espéraient au moins circuler paisiblement sur les trottoirs, ces espaces censés leur être réservés. Que leur situation se dégrade encore plus, et on voit mal pourquoi il en irait autrement, et il sera évidemment très intéressant d'observer les réactions, dans les discours, et dans les actes, des parties concernées et, en première ligne, des pouvoirs publics.

jaunes

, 19:13

La très longue histoire des révoltes fiscales françaises, auxquelles Charles Tilly consacre une large place dans son ouvrage classique, La France conteste, connaît donc aujourd'hui un épisode inédit, qui fait intervenir de nouveaux acteurs avec, en termes de mobilisation, si l'on regarde les choses avec une petite connaissance de l'analyse des mouvements sociaux, un succès impressionnant. Car, même dans un pays où, plus que beaucoup d'autres en Europe, la revendication échappe rarement au détour de la rue, convaincre autant d'individus de passer de la récrimination à l'action, de la protestation verbale à l'occupation du terrain, ne va pas de soi, et d'autant moins lorsque, comme c'est ici le cas, l'initiative cumule les handicaps.

Celle-ci, en effet, se singularise d'abord par son absence de structuration préalable, puisqu'aucune organisation revendicative établie, syndicale ou autre, ne participe à la préparation de l'événement. Plus encore, elle devra se passer du soutien des quelques spécialistes du mode d'action envisagé, occupation de points stratégiques sur le réseau routier ou ralentissement de la circulation sur les grands axes. Coutumières de ce genre de répertoire ni les organisations de camionneurs, ni la fédération des motards grognons ne participeront en tant que telles au mouvement. Enfin, elle devra, en un temps très bref, rassembler suffisamment de volontaires pour faire de la journée inauguratrice de la contestation un succès.
Quand bien même il ne s'agissait au départ que d'y consacrer son samedi, réussir à mobiliser aussi rapidement autant d'anonymes relève de l'exploit. Sans doute, d'ailleurs, une analyse ethnographique de la mobilisation relèverait-elle nombre de socialisations préalables, comme autrefois chez les fondateurs de la FFMC, souvent venus des moto-clubs pirates. Au moins, pour réconforter l'analyste désemparé devant tant d'infractions aux théories de l'action collective, ce mouvement naît-il grâce à l'indispensable élément déclencheur, seul en mesure de cristalliser un mécontentement latent. En l'espèce, il s'agit de cette brutale hausse du prix des carburants qui fait suite à une longue phase de repli des prix du pétrole, hausse amplifiée par une taxation présentée comme vertueuse, laquelle permet à son tour de désigner le coupable le plus universel puisque responsable par défaut de tous les maux, l’État.
Confus, désorganisé, contradictoire, ce mouvement rappelle dans son mode d'action jusqu'au-boutiste, majoritairement illégal et potentiellement violent, dans sa composition sociale, dans son répertoire d'action, dans sa géographie même, ces protestations d'ouvriers bloquant leurs usines, lesquelles constituent souvent le seul employeur industriel d'une ville isolée, tout en menaçant, faute d'accéder à leurs revendications impossibles à satisfaire, de tout faire sauter. Sauf que les protestataires du week-end ne sont plus quelques centaines mais, au pic de la mobilisation et selon la police, 280 000.

La pire des politiques, pour un pouvoir confronté à une telle opposition, massive, brutale, aux développements imprévisibles, et dont on peut mesurer l'efficacité en dénombrant les ronds-points bloqués, les camions immobilisés, les zones commerciales désertées serait de faire le dos rond, d'attendre que ça se tasse tout en laissant la police, ici et là, rétablir provisoirement l'ordre, de compter sur l'offensive précoce du général hiver pour renvoyer les occupants dans leurs foyers. C'est pourtant bien ainsi que, pour l'heure, il réagit.

C'est que le gouvernement avait un plan, celui, dit-il, de réussir la transition énergétique, qu'il présente comme une espèce d'obligation sacrée, une lutte pour que cette fin de l'histoire-là soit enfin définitive, plan assorti de promesses, de petits cadeaux et de jolies images. Et, affirme-t-il, il s'en tiendra fermement à sa feuille de route. Or, ironiquement, la justification essentielle de ce plan, l'impérieuse diminution des émissions de dioxyde de carbone se trouve, dans le cas particulier d'un des pays les plus vertueux de l'OCDE, simplement, vaine. On l'a déjà dit, lorsqu'on ne représente même plus 1% des émissions mondiales de CO2, les efforts ne sont plus à faire ici, mais chez les voisins. S'il existe une technologie à abandonner aussi tôt que possible, c'est le charbon et pas le diesel. Et si le levier de la fiscalité conserve un intérêt, c'est pour inciter à l'économie face à la diminution des ressources en général et du pétrole en particulier, diminution inévitable mais ni linéaire ni programmable. Un effort à poursuivre sur le long terme, des paliers faibles et progressifs, une politique stable, une visibilité permettant à chacun de faire ses arbitrages sans craindre d'être pris au dépourvu par les caprices des puissants, en somme exactement le contraire de la politique actuelle qui joue d'un côté la conversion à marche forcée vers ce mirage du tout-électrique qui pour l'heure vit essentiellement de subventions, et de l'autre la fin du moteur thermique, illusion aussi impraticable que socialement dommageable du fait de ses multiples effets de composition, lesquels toucheront massivement et de façon répétée les plus faibles.
Mais sans doute est-il bien plus facile de contraindre ses propres citoyens que les entreprises de son premier partenaire européen, lesquelles profitent sans complexe de tarifs préférentiels sur une électricité sale. Prêtes à renoncer au principal atout énergétique du pays au nom d'on ne sait quel fétichisme de la promesse à tenir, fût-elle absurde, les politiques menées en France depuis vingt ans méprisent la réalité, qu'elle soit technique, économique ou sociale. Avec cette révolte aussi soudaine qu'inédite, la réalité a commencé à se venger

- page 1 de 16