identifier
stringlengths 14
257
| collection
stringclasses 5
values | open_type
stringclasses 1
value | license
stringclasses 4
values | date
float64 1.9k
2.02k
⌀ | title
stringlengths 1
975
⌀ | creator
stringclasses 774
values | language
stringclasses 1
value | language_type
stringclasses 1
value | word_count
int64 2
312k
| token_count
int64 10
553k
| text
stringlengths 23
2.08M
| __index_level_0__
int64 0
57.3k
|
|---|---|---|---|---|---|---|---|---|---|---|---|---|
35/hal.archives-ouvertes.fr-hal-01349955-document.txt_1
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 914
| 1,574
|
Faire système et gouvernance dans les filières alimentaires relocalisés. L'exemple de deux organisations territorialisées en Pays Loire (association de producteurs et Amap poisson Yeu Nantes) Julien Noel, Laurent Le Grel, Ivan Dufeu, Christine Margetic
ystème
Julien NOEL Université d'Angers ; ESO-Angers UMR ESO 6590-CNRS UFR LLSHS, 11 bvd Lavoisier, 49045 Angers Cedex 1 Téléphone : 06.63.05.25.78 email : [email protected] Laurent LE GREL Fish-Pass 3 rue des Grands Champs, Z.A. des 3 Prés, 35890 Laillé Téléphone : 02.99.77.32.11 email : [email protected] Ivan DUFEU école ONIRIS, LEMNA EA 4272-LARGECIA La Géraudière, BP 82225, 44322 Nantes Téléphone : 02.51.78.54.45 email : [email protected] Christine MARGETIC Université de Nantes ; ESO-Nantes UMR ESO 6590-CNRS Bâtiment IGARUN, BP 81227, 44312 Nantes cedex 03 Téléphone : 02.53.48.75.56 email : christine.margetic@univ-
L'objet de notre contribution analyse comment certaines formes d'organisations collectives territorialisées (FOCT) au sein des filières agricoles et halieutiques participent d'une relocalisation plus durable de l'alimentation. Plus précisément, il s'agit de montrer comment se construisent des circuits alimentaires de proximité. Pour ce faire, notre réflexion s'appuie sur deux exemples de FOCT enquêtées lors de la recherche-action VALPARESO menée en Pays de la Loire entre 2012 et 2014 autour de la valorisation des productions alimentaires ligériennes et des réseaux d'acteurs. La première, Bio Loire Océan, regroupe une soixantaine d'agriculteurs biologiques engagée dans la structuration d'une filière bio de fruits et légumes. La seconde, l'AMAP poisson Yeu-Nantes, organise un circuit court alimentaire entre pêcheurs ogiens et amapiens nantais. 1 Mots-clés : systèmes alimentaires, territoire, organisations collectives, circuits alimentaires de proximité, Pays de la Loire
Abstract
The aim of this contribution analyses how mains collective organizations territorialized forms (COTF) in farming and fishing supply chains participates in a more sustainable relocation of food systems. More exactly, we try to show how proximity supply chains are building. To do this, our reflexion leans on two COTF cases investigated during the researchaction named VALPARESO led in Pays de la Loire region between 2012 and 2014 around the regional productions promotion and actors' networks. The first case named Bio Loire Ocean, joins about sixty organic farmers engaged in an organic fruits and vegetables supply chain structuring. The second case, a community support fishing between Yeu-Nantes, organizes a short food supply chain between Yeu's island fishermen and Nantes' city consumers. Key-words: food systems, territory, collective organizations, proximity supply chain, Pays de la Loire region
2 Faire système et gouvernance dans les filières alimentaires relocalisés. L'exemple de deux organisations collectives territorialisées en Pays de la Loire (association de producteurs Bio Loire Océan et Amap poisson YeuNantes) Résumé
L'objet de notre contribution analyse comment certaines formes d'organisations collectives territorialisées (FOCT) au sein des filières agricoles et halieutiques participent d'une relocalisation plus durable de l'alimentation. Plus précisément, il s'agit de montrer comment se construisent des circuits alimentaires de proximité. Pour ce faire, notre réflexion s'appuie sur deux exemples de FOCT enquêtées lors de la recherche-action VALPARESO menée en Pays de la Loire entre 2012 et 2014 autour de la valorisation des productions alimentaires ligériennes et des réseaux d'acteurs. La première, Bio Loire Océan, regroupe une soixantaine d'agriculteurs biologiques engagée dans la ation d'une filière bio de fruits et légumes. La seconde, l'AMAP poisson Yeu-Nantes, organise un circuit court alimentaire entre pêcheurs ogiens et amapiens nantais. L'objet de notre communication propose une réflexion autour des modalités d'action collective au sein des filières agricoles et halieutiques ligériennes et de leurs implications dans les processus de relocalisation-reterritorialisation plus durable de l'alimentation. Le point de départ de notre communication cherche à analyser certaines formes d'organisations collectives territorialisées (FOCT) actuellement à l'oeuvre au sein de ces filières alimentaires en Pays de la Loire. Plus précisément, il s'agit de montrer comment ces FOCT mobilisent (et émergent de) différentes catégories d'acteurs des filières (professionnels, collectivités) et d'espaces (ruraux, littoraux, périurbains) et s'inscrivent dans une double proximité territoriale, géographique et organisée (Torre et Beuret, 2012), participant ainsi à la construction de circuits alimentaires de proximité (Praly et al., 2014). C'est donc ces processus de valorisation par des réseaux d'acteurs territorialisés issus des filières agricoles et halieutiques que nous avons cherché à étudier au travers de la démarche 3 de recherche-action VALPARESO (Valorisation des productions alimentaires ligériennes et réseaux d'acteurs) menée en Pays de la Loire entre 2012 et 2014 (Dufeu, 2014). Sur le plan méthodologique, les FOCT identifiées dans le projet sont investiguées au moyen de plusieurs enquêtes de terrain (entretiens semi-directifs approfondis, observations participantes), complétées par l'exploitation de données secondaires (documents internes, sites Internet). Au croisement de plusieurs disciplines en sciences humaines et sociales, ces FOCT sont appréhendées ici au prisme de leur projet collectif qui renvoie à un périmètre territorial sur lequel chacune s'organise et fonctionne selon différentes modalités, notamment en termes de rapport aux marchés traditionnels, de logique de fonctionnement ou de finalité axiologique (ibid.). Deux études de cas de OCT sont particulièrement significatives de ces évolutions et de ces transformations. La première, l'association Bio Loire Océan (BLO) regroupe une soixantaine d'agriculteurs biologiques engagée dans la structuration d'une filière bio de fruits et légumes, afin notamment d'unir leur force de vente pour mieux répondre aux besoins du réseau Biocoop ou de la restauration collective en région. L'objectif ici bien de regrouper cette offre de producteurs pour gagner en efficience et/ou en pouvoir de marché (approvisionnement en commun, mutualisation logistique). La seconde étude de cas, l'AMAP poisson Yeu-Nantes, lie un noyau de cinq armements de pêcheurs artisanaux ogiens à une vingtaine de regroupements d'Amap de la région nantaise, permettant d'écouler quelques 1800 paniers mensuels de poissons frais.
| 7,933
|
03/hal.archives-ouvertes.fr-hal-00817721-document.txt_2
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 3,880
| 6,612
|
Effets sur les courants
On cherche ici à évaluer l'amplitude des courants pour s'assurer à la fois de leur valeur et de leur équilibre ou pas dans les phases saines de l'alimentation. L'augmentation de l'amplitude maximale des courants dans les phases restantes est induite par la stratégie de conservation du couple. À cette condition, il faut ajouter le maintien de la magnétisation de la machine avec le même courant i sd Modélisation causale pour la commande auto adaptatée de machines en mode dégradé 29 tandis que la conservation du couple impose le même courant i sq. Puisque la machine principale est dans le même état, c'est sur le courant i de la machine sh homopolaire que se reporte la dégradation et l'expression de sa valeur efficace issue de [13] est : 2
2 I sh = I sq + I sd [24]
L'évaluation de la valeur efficace des courants réels dans les phases saines passe d'abord par l'évaluation des courants instantanés. Ils sont obtenus en appliquant la transformation T hdq-abc au vecteur des courants fictifs de composantes (i sh, isd, isq). Le courant homopolaire est éliminé en utilisant la relation [13] et conduit aux expressions des courants réels en mode dégradé :
α α α 2 isa = 2 isd sin θ − + isq cosθ − sin − [25] 3 2 2 2 α π α π π α 2 isb = 2 isd sin(θ − − ) + isq cos(θ − − ) sin − [26] 3 2 3 2 3 3 2 α 2π α 2π 2π α 2 − [27] isc
= 2 isd sin(θ − − ) + isq cos(θ − + ) sin 3 2 3 2 3 3 2 Or
, avec l'action des correcteurs résonants, i sd et i sq sont constants en régime permanant (notés I sd et I sq), ce qui permet de déterminer que les deux courants efficaces dans les phases saines sont identiques et s'expriment : 2 + 2 I sk = I sq I sd quelque soit k = a, b ou c la phase saine considérée [28] En conclusion, les courants parcourant les phases saines sont de même amplitude que le courant homopolaire. Effets sur les tensions
Comme pour les courants, on cherche ici à évaluer les tensions appliquées aux phases saines de la machine en cas de dégradation. La tension statorique homopolaire instantanée est donnée par : 30 vsh (t ) = Rs ish
(t
) +
Lsh ()() [] dish (t ) dt
[29]
= 2 Rs I sq + LshωI sd sin(ωt − α ) + − Rs I sd + LshωI sq cos(ωt −
α ) Cette relation permet d'exprimer la tension homopolaire efficace en régime permanent : () ()
2 2 2
+
I sd Vsh
= Rs2 + Lshω I sq [30]
L'impédance homopolaire Z sh est ainsi mise en évidence :
() Z sh = Rs2 + Lshω 2
[31] Pour poursuivre l'évaluation des tensions de phase, on s'appuie sur les considérations suivantes : – la correction du couple impose des courants fictifs constants, ce qui est obtenu par l'emploi de correcteurs résonants ; – les expressions des courants fictifs ont été établies dans différentes stratégies de fonctionnement dégradé aux paragraphes précédents relatifs aux pertes Joule ou aux courants par phase. Les tensions aux bornes des machines fictives sont calculées en superposant les tensions engendrées par les fonctionnements normal et dégradé, c'est à dire : – les tensions vsa, vsb et vsc en cas d'alimentation normale ; – les contributions v appliquée à la tension vsh. sha vshb et v shc obtenues par la transformation T hdq-abc Si V est la tension efficace commune des tensions V sa, V sb et V sc avec une alimentation normale, les expressions évoluent avec une alimentation par deux phases et deviennent :
v' sa ' vsb ' vsc vsh + ωt V 2 sin () 3 vsh vsa v π 2 sh = Thdq − abc 0 + vsb = + V 2 sin ωt − 3 3 0 vsc v 4π sh + V 2 sin ωt − 3 3 [32] Modélisation causale pour la commande auto adaptatée de machines en mode dégradé 31
L'expression de v sh tirée de [29] est introduite dans [32] pour aboutir à trois tensions dont les amplitudes maximales sont sensiblement différentes comme l'illustre la figure 18 pour laquelle les tensions saines sont repérées en traits fins (les valeurs numériques sont celles de la machine d'application définie en annexe V).
400
a b c Vondsa, Vondsb, Vondsc (V) 0 0.01 0.02 0.03 Temps (s
)
0.04 0.05
0.06 Figure 18. Tensions issues des onduleurs : phases saines (lignes interrompues) et une phase ouverte (lignes pleines). Pour cette illustration, la phase b est ouverte. Cela correspond à un accroissement de 3,5% environ de l'amplitude de la tension délivrée par l'onduleur pour cette phase ouverte et une légère diminution pour la phase c (2,9% environ), la dernière étant quasiment inchangée. Si l'impact d'une dégradation sur l'amplitude des courants sains est particulièrement visible et notable, les variations des tensions statoriques sont moins pénalisantes. Les quelques pourcents de variation de la tension nominale peuvent être tolérées sans craindre la saturation de l'onduleur. 3.3.3. Vérifications en simulation
Les simulations sont menées sur une machine asynchrone de puissance comparable à la machine synchrone étudiée au § 3.2 à la vitesse constante de 1500 tr/min. Les caractéristiques de la machine sont regroupées en annexe V. Dès l'ouverture d'une phase statorique, les observations effectuées sur la machine avec les correcteurs PI n'offrent pas d'informations supplémentaires par rapport à la machine synchrone : le courant homopolaire fait son apparition et le couple est très fortement pulsé. 32 Pour apprécier l'augmentation des grandeurs, la consigne de couple est maintenue en mode dégradé. Le couple varie pendant une courte durée que l'on peut estimer à moins d'une période du réseau (figure 19 gauche). Le retour du couple à la « normale » est confirmé par la forme du courant i sq visible sur la figure 19 droite. On y observe aussi que le courant homopolaire n'est plus nul, tandis que sa période de 20 ms est celle des grandeurs statoriques.
4 6 3.5 3 4 i sq 2 i sd ish, isd et isq (A) Cem (Nm) 2.5 Apparition de la dégradation 2 1.5 1 0 -2 0.5 i sh Dégradation 0 -4 -0.5 -1 1.7 1.75 1.8 -6 1.7 1.85 1.75 Temps (s) 1.8 1.85 Temps (s)
Figure 19. Comportement du couple (à gauche) et courants fictifs (à droite). Dans les mêmes conditions, on peut apprécier l'augmentation des amplitudes maximales des courants par enroulement alimenté (figure 20 gauche). 3 ), correspond au doublement des L'accroissement d'un facteur 1,7 (proche de pertes par effet Joule. De plus, l'amplitude maximale du courant homopolaire (figure 19 droite) est la même que celle dans les phases saines (environ 5,5 A) comme l'établissent les relations [24] et [28]. Pour parvenir à des courants de même amplitude dans les phases saines, les onduleurs délivrent des tensions non équilibrées à la machine (figure 20 droite), d'amplitude toutes différentes comme ceci est établi avec [32] et illustré sur la figure 18. 6 i sa i sc 2 0 vondb 300
Von
dsa,
Vondsb, Vondsc (V) isa, isb et isc (A)
4 400 Dégradation isb -2 vonda vondc Dégradation -4 -300 -6 1.7 1.75 1.8 Temps (s) 1.85 -400 1.7 1.75 1.8 1.85 Temps (s)
Figure 20. Courants (à gauche) et tensions (à droite) statoriques avant et après l'apparition du défaut. Modélisation causale pour la commande auto adaptatée de machines en mode dégradé 33
3.3.4. Validation expérimentale
Les vérifications expérimentales ont été effectuées sur la machine définie en annexe V, en utilisant un banc expérimental DSpace 1005 piloté avec l'environnement de développement temps réel ControlDeskTM (figure 21 gauche). La figure 21 droite montre le couple sur l'arbre estimé à partir des courants mesurés dans les phases. En mode dégradé, et avec la correction proposée, il est quasi confondu avec celui en fonctionnement normal. Pour les conditions d'étude, le couple obtenu lorsque seul le correcteur PI de base agit est ondulé comme l'a montré l'étude. Sa période de 13 ms correspond, aux variations de réglage près, à la moitié de la période des grandeurs statoriques, ce qui valide l'existence de l'harmonique 2 de couple. 4.5 4 Couples (Nm) 3.5 3 2.5 2 Normal Dégradé avec correction PI+résonante 1.5 1 Dégradé avec correction PI seule 0.5 0 0 0.005 0.01 0.015 0.02 0.035 0.04 0.045 0.05
Figure 21. Plateforme expérimentale (gauche). Couples estimés sur l'arbre (droite). 6
6 is
a
4 2 2 isb 0 -2 -4 -4 0 0.005 0.01 0.015 0.02 0.035 0.04 0.045 0.05 isb 0 -2 -6 isa isc 4 isa, isb et isc (A) isa, isb et isc (A) isc -6 0 0.005 0.01 0.015 0.02 0.035 0.04 0.045 0.05
Figure 22. Courants statoriques avec correction PI (gauche) et résonante (droite). 34
6 6 iq 2 ih, id et iq (A) ih, id et iq (A) 4 id 0 ih -2 iq 2 id 0 ih -2 -4 -6 4 -4 0 0.005 0.01 0.015 0.02 0.035 0.04 0.045 0.05 -6 0 0.005 0.01 0.015 0.02 0.035 0.04 0.045 0.05
Figure 23. Courants dans Mp avec correction PI (gauche) et résonante (droite).
En choisissant d'ouvrir la phase 2 de l'alimentation de la machine, les figures 22 et 23 montrent la quasi coïncidence des courants issus de la simulation et de l'expérimentation. On trouve à gauche les courants quand les correcteurs PI sont actifs, tandis qu'à droite les correcteurs résonants agissent efficacement. Ces derniers rétablissent des courants d'amplitude maximale identiques dans les phases saines (figures 22), ce qui conduit à des courants constants dans la machine principale. Le courant homopolaire non nul, de fréquence moitié de celle des perturbations, rend compte des effets de la dégradation. La confrontation des résultats de manipulation à ceux issus de la simulation montre une grande similitude des grandeurs. Ce constat atteste de la validité du modèle de dégradation retenu. La méthode décrite permet de préserver un couple constant sur l'arbre quand l'alimentation statorique est défaillante. La mise en oeuvre pratique ne nécessite aucune intervention particulière quand une phase, quelle qu'elle soit, disparaît. En fonction du choix initial opéré pour conserver le couple ou les courants en ligne identiques, la machine délivre toujours le couple constant particulièrement utile dans les exemples énoncés dans l'introduction. 4. Conclusion générale et perspectives
Cet article a rappelé que pour les machines triphasées synchrones ou asynchrones, la perte d'une phase d'alimentation amène un couple pulsatoire à la fréquence double du fondamental de celle des grandeurs statoriques. L'originalité de l'analyse et du traitement visant à rendre l'entraînement tolérant à la dégradation de son alimentation électrique réside dans la proposition d'une structure de correction ne nécessitant pas : Modélisation causale pour la commande auto adaptatée de machines en mode dégradé 35 – une modification structurelle de la commande ; – la connaissance de la phase ouverte. Pour mener à bien cette solution, une modélisation vectorielle, pouvant s'appliquer à toutes les machines disposant d'un nombre quelconque de phases, est d'abord décrite, puis appliquée à la machine triphasée non couplée (qui est un type élémentaire de machine polyphasée) en utilisant la Représentation Énergétique Macroscopique (REM). La dégradation est ensuite modélisée sur le même principe en s'appuyant sur la « resistor companion method ». La machine et son alimentation ainsi modélisées, la commande de l'entraînement est élaborée, soit par inversion de la REM pour une machine synchrone, soit par adaptation d'une commande industrielle pour une machine asynchrone. L'analyse des degrés de liberté du système dégradé conduit à abandonner le contrôle du courant homopolaire au travers d'une adaptation de la structure de commande établie. Enfin, le manque d'efficacité de simples correcteurs proportionnel et intégral pour rejeter les perturbations conduit à analyser le contenu harmonique des grandeurs à l'origine du couple. L'amélioration consiste alors à ajouter des correcteurs résonants accordés sur la fréquence des perturbations pour éliminer efficacement les ondulations de couple. L'évaluation des pertes Joule, des courants et des tensions statoriques permet d'apprécier les effets de la dégradation sur les performances de la machine. De plus, la modification des grandeurs en fonctionnement dégradé met en évidence l'impact du défaut sur la source d'alimentation. Les analyses en simulation valident l'efficacité de la modélisation et de la méthode de traitement de la dégradation proposée, analyses confirmées par les résultats expérimentaux. Finalement, il est à noter que les modélisations ont été menées en utilisant le formalisme vectoriel et la représentation énergétique macroscopique. Même si les machines d'application sont triphasées, la méthode peut être directement étendue à des machines polyphasées disposant de plus de trois phases. 5. Bibliographie
Barre P. J., Bouscayrol A., Delarue P., Dumetz E., Giraud F., Hautier J. P., Kestelyn X., Lemaire-Semail B., Semail E., « Inversion-based control of electromechanical systems using causal graphical descriptions », IECON'2006, Paris, November 6-10, 2006, ISBN 1-4244-0136-4 Baumann C., Piquet H., Roboam X., « A novel structure for aeronautic DC distribution: the Mixed function for Actuation & Power Flow Control (MAPFC) », International Electric Machines and Drives Conference (IEMDC), 2007. Bennett J.W., Jack A.G., Mecrow B.C., Atkinson D.J., Sewell C., Mason G., « Fault-tolerant control architecture for an electrical actuator », 2004, 35th Annual IEEE Power Electronics Specialists Conference, June 20-25, 2004, Aachen, Germany. Boldea I. : Nasar S.A., Vector Control of AC Drives, RCR press, 1992. Bouscayrol, A.; Davat, B.; De Fornel, B.; Francois, B.; Hautier, J.P.; Meibody-TabaR, F.; Pietrzak-David, M.; Multi-machine multi-converter system for drives: analysis of coupling by a global modeling, Industry Applications Conference, 2000, volume 3, 8-12 Oct. 2000, Page(s): 1474 - 1481 vol.3. Bouscayrol, A., Formalisme de représentation et de commande appliqués aux systèmes électromécaniques multimachines multiconvertisseurs, Mémoire d'habilitation à diriger des recherches soutenue le 22 décembre 2003, Université des Sciences et Techniques de Lille. Caron J.P., Hautier J.P., Modélisation et commande de la machine asynchrone Technip - Electrotechnique - Vol. 7 - 280 pages, Paris, 1995. , Éditions Crévits Y., Kestelyn, X., Semail, E., « Investigation on vector control of three-phase synchronous machines under supply fault condition », International Symposium on Power Electronics, Electrical Drives, Automation and Motion (SPEEDAM). May 2006, pp. 439444. De Fornel B. (sous la direction de J.-P. Louis), Modèles pour la commande des actionneurs électriques, partie 5 : « modélisation dynamique des machines asynchrones », traité EGEM série Génie électrique, ISBN 2-7462-0917-9, Hermès, Lavoisier, 2004, pp. 215287. Ertugrul N., Soong W., Dostal G., Saxon D., « Fault tolerant motor drive system with redundancy for critical applications », Conf. Rec. IEEE Power Electronics Specialists Conf., vol. 3, 2002, pp. 1457–1462. Figueroa J., Cros J., Viarouge P., « Polyphase PM brushless DC motor for high reliability application », Proc. of EPE 2003, Toulouse (France), Sept.2003, CD-ROM. Modélisation causale pour la commande auto adaptatée de machines en mode dégradé 37 Figueroa J., Cros J., Viarouge P., « Generalized transformations for polyphase phaseModulation motors », IEEE Transaction on Energy Conversion, Vol. 21, Issue 2, pp. 332341, June 2006, ISSN: 0885-8969. Filliau G., Alain Bondu A., Mazodier L., « Le navire tout électrique – Évolutions et systèmes de conduite », traité les techniques de l'ingénieur, réf. D5620. Fu J.R., Lipo T.A., « Disturbance-Free Operation of a Multiphase Current-Regulated Motor Drive with an Open Phase », IEEE Transactions on Industry Applications, Vol. 30, no 5, September/October 1994, pp. 1267-1274. Jahns T.M « Improved reliability in solid-state ac drives by means of multiple independent phase-drive units », IEEE Transactions on Industry Applications, Vol IA16, pp. 321-331, May/June 1980. Kestelyn X., Modélisation vectorielle multimachines pour la commande des ensembles convertisseurs-machines polyphasés, thèse de Doctorat soutenue le 4 décembre 2003, Université des Sciences et Techniques de Lille. Kestelyn X., Locment F., Crévits Y. and Semail E., « Easy-to-implement integral numerical simulation of multi-phase drives under fault supply condition » », International Electric Machines and Drives Conference (IEMDC), 5-2007. Klingshirn E.A., « High phase order induction motors – Part 1 - Description and theorycal considerations and Part 2 - Experimental results », IEEE Transaction On Power Apparatus and Systems, Vol. PAS-102, No 1, January 1983. Klingshirn E.A., « Harmonic filters for six-phase and other multiphase motors on voltage source inverters », IEEE Transaction On Industry Applycation, Vol. IA-21, No 4, may/june 1985. Levi, E.; Bojoi, R.; Profumo, F.; Toliyat, H.A.; Williamson, S., « Multiphase induction motor drives - A technology status review », Electric Power Applications, IET Volume 1, Issue 4, July 2007, Page(s) : 489 – 516. Lhomme W., Gestion d'énergie dans un véhicule hybride basé sur la représentation énergétique macroscopique, thèse de Doctorat soutenue le 16 novembre 2007, Université des Sciences et Techniques de Lille. Locment F., Semail E., Kestelyn X., « A vector controlled axial-flux seven-phase machine in fault operation », Proc. Int. Conf. on Electrical Machines ICEM, Chania, Crete, Greece, 2006, CD-ROM paper. Martin J.P., Meibody-Tabar F., Davat B., « Multiple-phase Permanet Magnet Synchronous Machine Supplied By VSIs, Working under Fault Conditions », IEEE Industry Applications Society, 2000, CD ROM. Martin J.P., Pierfederici S., Meibody-Tabar F., Letellier P., « Synthèse des méthodes de filtrage du Couple des MSAP Polyphasées en modes normal et dégradé », Revue Internationale de Génie Électrique, vol. 10/1-2-2007, pp. 117-149. Monti A., Santi E., Dougal R., Ponci F., Riva M., « Symbolic analysis for automatic model generation 2001 ». IEEE Power Engineering Society Summer Meeting, Vol. 3, pp. 14451450, 15-19 July 2001. 38 Ryu H.M., Kim J. H., Sul S. K., « Synchronous Frame Current Control of Multi-Phase Synchronous Motor, Part I. Modeling and Current Control Based on Multiple d-q Spaces Concept Under Balanced Condition », Proc. of IEEE-IAS'04, Vol. 1, pp. 56-63, Seattle (USA), Oct. 2004. Ryu H.M., Kim J. H., Sul S. K., "Synchronous Frame Current Control of Multi-Phase Synchronous Motor, Part II. Asymmetric Fault Condition due to Open Phases", Proc. of IEEEIAS'04, vol. 1, pp. 268-275, Seattle (USA), Oct. 2004. Semail E., Outils et méthodologie d'étude des systèmes électriques polyphasés. Généralisation de la méthode des vecteurs d'espace, thèse de Doctorat soutenue le 30 juin 2000, Université des Sciences et Techniques de Lille. Semail E., Bouscayrol A., Hautier J.P. « Vectorial formalism for analysis and design of polyphase synchronous machines », European Physical Journal-Applied Physics, Vol. 22 n°3, 2003, pp207-221. Semail E., Louis J.-P., Feld G., Modélisation des machines électriques en vue de leur commande – concepts généraux, partie 4 : « propriétés vectorielles des systèmes électriques triphasés », traité EGEM série Génie électrique, ISBN 2-7462-0916-0, Hermès, Lavoisier, 2004, pp. 181-246. Semail E., Meibody-Tabar F., Benkhoris M. F., Razik H., Pietrzak-David M., Monmasson E., Bouscayrol A., Davat B., Delarue Ph., de Fornel B., Hautier J. P., Louis J. IEEE Toliyat H.A., Lipo T.A., White J.C., « Analysis of a Concentrated Winding Induction Machine for Adjustable Speed Drive Applications Part 1 and 2 », IEEE Transactions on Energy Conversion, Vol. 6, No.4, December 1991. Toliyat H.A., « Analysis and Simulation of Five-Phase Variable –Speed Induction Motor Drives Under Asymmetrical Connections », IEEE Transactions on Power Electronics, vol 13 n°4, pp. 748-756, 1998. Wallmark O., Harnefors L., Carlson O., « Control Algorithms for a Fault-Tolerant PMSM Drive », IEEE TRANSACTIONS ON INDUSTRIAL ELECTRONICS, VOL. 54, NO. 4, AUGUST 2007. Modélisation causale pour la commande auto adaptatée de machines en mode dégradé 39 Welchko B. A., Jahns T. M. and Hiti S., « IPM synchronous machine drive response to a single-phase open circuit fault », IEEE Transaction on power electronics, September 2002, volume 17, issue 5. Welchko B.A., Lipo T.A., Jahns T.M., Schulz S.E., « Fault tolerant three-phase AC motor drive topologies: a comparison of features, cost, and limitations », IEEE Transactions on Power Electronics, July 2004, volume 19, issue 4. Williamson S., Smith S., Hodge C., « Fault tolerance in multiphase propulsion motors », Journal of Marine Engineering and Technology, n°4, A4, 2004. Wulveryck Marc, Contrôle de courants alternatifs par correcteur résonant multifréquentiel Application à la commande de systèmes électrotechniques non linéaires, thèse soutenue à l'université de Lille 1, 2000, No : 00 LIL1 0062 Zheng J., Guillaud X., Degobert P., « Control of AC machines with Multi-Frequency Resonant Controller », proceeding of the 11th International Power Electronics and Motion Control Conference (EPE-PEMC), September 2004, Riga, Latvia. Zhao Y, Lipo T.A. , « Space Vector PWM Control of Dual Three-phase Induction Machine Using Vector Space Decomposition », IEEE Transactions On Industry Applications, VOL. 31, NO. 5, September-October 1995, pp. 1100-1109. Zhao Y., Lipo T.A., « Modeling and control of a multi-phase induction machine with structural unbalance. Part I: Machine modeling and multi-dimensional current regulation », IEEE Transactions on Energy Conversion, vol. 11, no. 3, September 1996, pp. 570-577. Zhao Y., Lipo T.A., « Modeling and control of a multi-phase induction machine with structural unbalance. Part II: Field-oriented control and experimental verification », IEEE Transactions on Energy Conversion, vol. 11, no. 3, September 1996, pp. 578-584. Axes d Rotor Relations M M esd = − ird − ωs ⋅ φsq + ωr φrq τr Lr [A2-1] q M M ⋅φ esq = − irq + ωs ⋅ φsd − ωr rd τr Lr [A2-2] d M M φ −ω φ erd = − isd + ωs sq r rq τs Ls [A2-3] q M M ⋅φ + ω φ erq = − isq − ωs sd r rd τs Ls [A2-4] Stator Modélisation causale pour la commande auto adaptatée de machines en mode dégradé 41 Expressions des courants fictifs Ax
es Relations
d 1 1 M isd = vrd − esd vsd − + στ Rs 1 Lr ss [A2-5] q 1 1 v sq − M v rq − esq isq = Rs 1 + στ s s Lr [A2-6] d 1 1 vrd − M vsd − erd ird = Rr 1 + στ r s Ls [A2-7] q 1 1 vrq − M v sq − erq irq = + Rr 1 στ r s Ls [A2-8] Rotor Stator M2
Avec σ le coefficient de dispersion de Blondel : σ = 1 −. Lr Ls
Annexe III : expressions des grandeurs mécaniques dans la machine asynchrone
Relation
liant
les puls
ations et
la vitesse roto
rique
ωs = pΩ + ωr [A3-1] Expression
s du
couple électromagn
étique dans
la machine principale () M
φ ⋅ −φ ⋅ Cp = p rd isq rq isd [A3-2] Lr ( ) C p = p φsd ⋅ isq − φsq ⋅ isd [A3-
3] (
) C = p ⋅ M isq ⋅ ird − isd q A3-4
Annexe IV : expressions des termes de la matrice des couplages fictifs
La matrice couplant les grandeurs dans les machines fictives s'écrit :.
| 12,787
|
d9acdeea200d999cf4313ed05a88dde2_9
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,022
|
Exportations de poisson destiné à la consommation humaine
|
None
|
French
|
Spoken
| 6,408
| 11,707
|
Le blé représente presque la moitié des importations de céréales de la région, et la Russie en a toujours
été le principal fournisseur, en plus des volumes importants fournis par l’Ukraine. L’évolution de la guerre
de la Russie contre l’Ukraine est donc un motif supplémentaire de préoccupation concernant la
disponibilité du blé et le coût de ses importations. S'agissant de la plupart des principaux produits, leurs
exportations auront tendance à diminuer au fil du temps. L’Afrique subsaharienne n’est pas autosuffisante
pour les aliments de base, et sa dépendance aux importations devrait s’accentuer au cours des dix
prochaines années. Pour ce qui est en revanche des fruits et légumes frais, leurs exportations en valeur
réelle augmenteront respectivement de 31 % et 48 % d’ici 2031. Cela signifie que globalement, les
exportations agricoles en valeur réelle (2014-16) pourraient s'accroître au total de 23 % pendant la période
de projection.
Contrairement aux cultures vivrières de base, la production de coton est vendue pour l’essentiel sur les
marchés mondiaux et en 2031, plus de 90 % de la production de coton de l’Afrique subsaharienne sera
exportée. Cette production est assurée pour l’essentiel par les pays les moins avancés de la région, dont
la part dans les exportations mondiales devrait légèrement progresser au cours de la période examinée.
Cela fait un peu plus d'un an que le régime préférentiel des échanges est entré en vigueur au sein de la
Zone de libre-échange continentale africaine (AfCFTA). Son objectif – améliorer les échanges au sein de
cette zone – est extrêmement important pour le développement économique de la région, et ce d'autant
plus au vu des incertitudes croissantes au niveau mondial. La pandémie de COVID-19 a retardé sa mise
en œuvre et en 2020, les échanges intra-africains ont été ramenés à 16 %, contre une moyenne de 18 %
sur les cinq années précédentes. Les produits agricoles représentent environ un quart de ces échanges,
et les perturbations de la chaîne d’approvisionnement dues à la pandémie ont clairement porté un coup
au commerce.
L'objectif de l’AfCFTA est de supprimer les droits de douane sur 90 % des lignes tarifaires ; une mise en
place progressive est prévue sur dix ans pour les PMA et sur cinq ans pour les autres pays. En
janvier 2022, cependant, les règles d’origine de l’accord n’avaient été mises en œuvre que pour 88 % des
lignes tarifaires. D'autres retards proviennent du fait que certains membres de l’union douanière n'ont pas
ratifié l'accord. C’est le cas du Botswana, du Soudan du Sud, du Bénin, de la Guinée-Bissau et du Libéria,
ce qui empêche la pleine application du régime préférentiel à plusieurs organisations commerciales
régionales, à moins que des compromis puissent être trouvés pour que l’accord puisse être mis en œuvre
au cas par cas. Malgré un démarrage au ralenti, des progrès ont été accomplis et pas moins de 76 % des
pays ont déposé un instrument de ratification. Cela témoigne à n’en pas douter d'une volonté de mettre
en œuvre l’accord. Alors que de nouveaux engagements doivent être pris concernant les règles d’origine,
seuls 3 % des lignes tarifaires seront finalement exclus de l’accord, qui a donc toutes les capacités
d'accroître les échanges intra-africains sur le moyen terme.
Plus de 50 pays ont pris des engagements en matière d'accès au marché pour les échanges de services,
souvent en complément et en accompagnement des échanges de biens ; des négociations sont toujours
en cours pour définir les règles régissant les investissements, la politique de la concurrence, les droits de
propriété intellectuelle, le commerce électronique ainsi que la place des femmes et des jeunes dans les
échanges commerciaux, de manière à optimiser les bienfaits de l’AfCFTA. 14 Le Système de paiement et
de règlement panafricain (PAPSS), récemment créé par l’Afreximbank (ou banque africaine d'importexport) et le Secrétariat de l’AfCFTA, est à cet égard une initiative importante qui ouvre des possibilités.
Parce qu'il permet des paiements instantanés en devises locales à travers les frontières africaines, le
PERSPECTIVES AGRICOLES DE L’OCDE ET DE LA FAO 2022-2031 © OCDE/FAO 2022
123
PAPSS supprime de fait les frontières existant entre les systèmes financiers africains et les regroupe de
façon formelle.
Hormis les droits de douane, un autre frein aux échanges intrarégionaux est le niveau élevé des obstacles
non tarifaires. Bien que l’AfCFTA prévoie une reconnaissance mutuelle des normes et des licences ainsi
que l’harmonisation des mesures sanitaires et phytosanitaires, un grand nombre de ces obstacles sont
difficiles à éliminer ou réduire. Selon les données relatives au coût des échanges recueillies par la CESAPBanque mondiale, l'équivalent ad valorem du coût des obstacles non tarifaires sur les échanges internes
du continent est estimé à quelque 283 %. Il est en outre de plus de 300 % pour les produits agricoles15 et
dépasse de plus de 100 % celui des produits manufacturés non agricoles. Les facteurs y contribuant sont
le coût élevé du transport routier, qui résulte de la déficience des infrastructures, ainsi que le manque
d’efficacité aux postes-frontières. Cela est corroboré par la présence de seulement six pays d’Afrique
subsaharienne dans la première moitié de l'indice de performance logistique de la Banque mondiale, qui
couvre 160 pays. Compte tenu des réglementations mises en œuvre à ce jour et de la nécessité de finaliser
les programmes de réduction des droits de douane et les listes de produits sensibles, aucun impact visible
n’a été prévu cette année dans les projections de référence.
Graphique 2.9. Valeur nette de la production des secteurs agricole, halieutique et aquacole par
habitant en Afrique subsaharienne
2011=1
1.08
1.06
1.04
1.02
1
0.98
0.96
0.94
0.92
0.9
2001
2003
2005
2007
2009
2011
2013
2015
2017
2019
2021
2023
2025
2027
2029
2031
Note : ces estimations sont fondées sur des séries chronologiques provenant du domaine « Valeur de la production agricole » de FAOSTAT et
complétées à l’aide de la base de données élaborée pour les besoins des Perspectives. Les données relatives aux autres produits ont été
obtenues par extrapolation. La valeur nette de la production repose sur les estimations des auteurs de l’utilisation de semences et aliments pour
animaux autoproduits. Elles sont exprimées en USD constants de 2014-16.
Source : FAO (2022). Base de données de FAOSTAT sur la valeur de la production agricole, http://www.fao.org/faostat/fr/#data/QV ;
OCDE/FAO (2022), « Perspectives agricoles de l’OCDE et de la FAO », Statistiques agricoles de l’OCDE (base de données),
http://dx.doi.org/10.1787/agr-data-fr.
StatLink 2 https://stat.link/o4y1xt
PERSPECTIVES AGRICOLES DE L’OCDE ET DE LA FAO 2022-2031 © OCDE/FAO 2022
124
Graphique 2.10. Faible emploi d’engrais par hectare de terre consacré à la production végétale en
Afrique subsaharienne, moyenne 2017-19
kg per hectare
land used
160
140
120
100
80
60
40
20
0
Moyenne mondiale
Afrique du sud
Ethiopie
Autres pays d’Afrique
subsaharienne
Afrique subsah.
Nigeria
PMA d’Afrique
subsaharienne
Source : FAOSTAT
StatLink 2 https://stat.link/chroi8
PERSPECTIVES AGRICOLES DE L’OCDE ET DE LA FAO 2022-2031 © OCDE/FAO 2022
125
Graphique 2.11. Évolution de la superficie récoltée et de l’utilisation des terres en Afrique
subsaharienne
Superficie récoltée par groupe de produits (Kha)
Céréales
Légumineuses, racines, tubercules
Oléagineux
Plantes sucrières
Autres productions végétales
1 374
99 300
2019-21
65 352
14 603
11 666
1 450
103 555
2031
0
10
20
73 360
30
40
50
60
14 961
70
80
12 820
100 %
90
Variation en valeur absolue de la superficie exploitée, 2019-21 à 2031 Variation en pourcentage de la superficie exploitée, 2019-21 à 2031
kha
Cultures
Pâturage
Forêts
Autres
%
16 000
16
12 000
14
Cultures
Pâturage
Forêts
Autres
12
8 000
10
8
4 000
6
4
-4 000
2
0
-8 000
-2
-12 000
-16 000
-4
Nigeria
Afrique du sud
Ethiopie
Autres Afrique Moins avancés
subsah.
-6
Nigeria
Afrique du sud
Ethiopie
Autres Afrique Moins avancés
subsah.
Source : OCDE/FAO (2022), Perspectives agricoles de l’OCDE et de la FAO ; Statistiques agricoles de l’OCDE (base de données),
http://dx.doi.org/10.1787/agr-outl-data-fr.
StatLink 2 https://stat.link/0e2kgo
PERSPECTIVES AGRICOLES DE L’OCDE ET DE LA FAO 2022-2031 © OCDE/FAO 2022
126
Graphique 2.12. Production animale en Afrique subsaharienne
Viande bovine
Mt
7
Viande porcine
Viande de volaille
Viande ovine
6
5
4
3
2
1
0
2019-21
2031
Nigeria
2019-21
2031
Afrique du sud
2019-21
2031
Ethiopie
2019-21
2031
Moins avancés
2019-21
2031
Autres Afrique subsah.
Source : OCDE/FAO (2022), Perspectives agricoles de l’OCDE et de la FAO ; Statistiques agricoles de l’OCDE (base de données),
http://dx.doi.org/10.1787/agr-outl-data-fr.
StatLink 2 https://stat.link/7w5ujk
PERSPECTIVES AGRICOLES DE L’OCDE ET DE LA FAO 2022-2031 © OCDE/FAO 2022
127
Graphique 2.13. Demande en produits essentiels, quantités d’aliments disponibles et balances des
échanges agricoles dans la région de l'Afrique subsaharienne
Croissance annuelle de la demande totale (alimentation humaine, alimentation animale et autres utilisations) (a)
Due à l'augmentation de la demande par tête (alimentation et autre usage)
% p.a.
4
En raison de la croissance démographique
3
2
1
0
-1
-2
2012-21
2022-31
Produits laitiers frais
2012-21
2022-31
Racines et tubercules
1500
1000
Nigeria
Afrique du sud
Ethiopie
PMA d’Afrique
subsaharienne
2031
2019-21
2031
2019-21
2031
2019-21
2031
2019-21
2031
0
2019-21
500
Autres pays
d’Afrique
subsaharienne
Nigeria
Animal
Afrique du sud
Ethiopie
Autres
2031
2000
Aliments de base
2019-21
2500
g
90
80
70
60
50
40
30
20
10
0
2031
Autres
2019-21
Edulcorants
2031
Graisses
2019-21
kcal
3000
Animal
2012-21
2022-31
Huile végétale
Quantité de protéines disponibles par personne et par jour (b)
Quantité de calories disponibles par personne et par jour (b)
Aliments de base
2012-21
2022-31
Sucre
2019-21
2012-21
2022-31
Poisson
2031
2012-21
2022-31
Viande
2019-21
2012-21
2022-31
Céréales
2031
-3
PMA d’Afrique Autres pays
subsaharienne d’Afrique
subsaharienne
Balances des échanges agricoles de l'Afrique subsaharienne (c)
Afrique subsah.
Nigeria
Moins avancés
Ethiopie
Afrique du Sud
Autres Afrique subsah.
bln 2014-16 USD
10
5
0
-5
-10
-15
-20
-25
-30
-35
2001
2003
2005
2007
2009
2011
2013
2015
2017
2019
2021
2023
2025
2027
2029
2031
Note : ces estimations sont fondées sur des séries chronologiques provenant des bases de données de FAOSTAT relatives aux bilans
alimentaires et aux indices commerciaux et incluent des produits non considérés dans les Perspectives. a) La croissance démographique est
calculée selon l’hypothèse que la demande par habitant demeure au niveau de l’année précédant la décennie. b) Matières grasses : beurre et
huiles ; Aliments d'origine animale : œufs, poisson, viande et produits laitiers hors beurre ; Aliments de base : céréales, oléagineux,
légumineuses et racines. c) Inclut les produits transformés et la pêche (non couverte par l'indice du commerce FAOSTAT) sur la base des
données des Perspectives.
Source : FAO (2022). Base de données de FAOSTAT sur la valeur de la production agricole, https://www.fao.org/faostat/fr/#data/QV ;
OCDE/FAO (2022), « Perspectives agricoles de l’OCDE et de la FAO », Statistiques agricoles de l’OCDE (base de données),
http://dx.doi.org/10.1787/agr-outl-data-fr.
StatLink 2 https://stat.link/w91uej
PERSPECTIVES AGRICOLES DE L’OCDE ET DE LA FAO 2022-2031 © OCDE/FAO 2022
128
Tableau 2.3. Indicateurs régionaux : Afrique subsaharienne
Moyenne
2009-11
%
2019-21
(référence)
2031
Croissance 2
Référence à
2031
2012-21
2022-31
Hypothèses macroéconomiques
Population (‘000)
PIB par habitant1 (kUSD)
Production (mrd USD de 2014-16)
Valeur nette de la production agricole, halieutique et
aquacole3
Valeur nette de la production végétale3
Valeur nette de la production animale3
Valeur nette de la production halieutique et aquacole3
Quantité produite (kt)
Céréales
Légumineuses
Racines et tubercules
Oléagineux4
Viande
Produits laitiers5
Produits halieutiques et aquacoles
Sucre
Huile végétale
Production de biocarburants (mln L)
Biodiesel
Éthanol
Superficie exploitée (kha)
Superficie agricole totale
Superficie totale affectée à la production végétale6
Superficie totale des pâturages7
Émissions de GES (Mt éq. 3.91
2.58
..
1.65
3.87
84.2
88.7
75.8
58.9
82.3
85.3
66.3
57.4
78.1
79.4
58.4
50.4
-5.03
-6.89
-11.85
-12.25
0.11
-0.35
-0.61
1.13
-0.45
-0.37
-1.98
-1.52
PERSPECTIVES AGRICOLES DE L’OCDE ET DE LA FAO 2022-2031 © OCDE/FAO 2022
129
Notes : 1. PIB par habitant en USD constants de 2010. 2. Taux de croissance estimés par les moindres carrés (voir le glossaire). 3. La valeur
nette de la production agricole, halieutique et aquacole est calculée selon la méthode de FAOSTAT, à partir de l’ensemble de produits représenté
dans le modèle Aglink-Cosimo et des valeurs des prix de référence internationaux moyens pour 2014-16. Les projections relatives aux cultures
non incluses dans le modèle ont été calculées sur la base des tendances de plus long terme. 4. Les oléagineux désignent le soja et les autres
graines oléagineuses. 5. Les produits laitiers comprennent le beurre, le fromage, les poudres de lait et les produits laitiers frais, exprimés en
équivalent extrait sec. 6. La superficie des terres cultivées rend compte des parcelles donnant lieu à plusieurs récoltes de grandes cultures.
7. Les pâturages désignent les terres disponibles pour le pacage des ruminants. 8. La disponibilité quotidienne en calories/protéines par habitant
désigne non pas la quantité absorbée, mais la quantité disponible par habitant et par jour. 9. Les aliments de base sont les céréales, les
oléagineux, les légumineuses, les racines et les tubercules. 10. Le taux d’autosuffisance est calculé comme suit : production /
(production + importations - exportations)*100.
Sources : FAO (2022). Base de données de FAOSTAT sur les bilans alimentaires et les indices commerciaux, https://www.fao.org/faostat/fr/#data ;
OCDE/FAO (2022), « Perspectives agricoles de l’OCDE et de la FAO », Statistiques agricoles de l’OCDE (base de données),
http://dx.doi.org/10.1787/agr-outl-data-fr.
2.5. Perspectives régionales : Proche-Orient et Afrique du Nord
2.5.1. Contexte
La hausse de la demande, ajoutée aux tensions de l’offre, favorise une augmentation de la
dépendance aux importations
La région Proche-Orient et Afrique du Nord16 comprend des pays aux profils de revenus hétérogènes, qui
sont souvent confrontés à des problèmes similaires en ce qui concerne l’environnement de la production
agricole. Les ressources foncières et hydriques sont limitées, et moins de 5 % des terres de la région sont
considérées comme arables. L’ensemble des pays de la région, à l’exception de l’Iraq et de la Mauritanie,
doivent composer avec la rareté des ressources hydriques, et dans certains pays, cette rareté est extrême,
les niveaux par habitant équivalant à moins d’un quart des niveaux viables. Ses ressources hydriques déjà
limitées rendent la région particulièrement vulnérable au changement climatique.
Parmi son éventail de pays moins avancés et d’économies à revenu élevé et intermédiaire, la région
comprend un grand nombre de pays du Golfe exportateurs de pétrole. Cette ressource étant une manne
financière, les marchés de l’énergie jouent un rôle extrêmement important au regard de l’activité
économique et peuvent avoir un impact majeur sur l'évolution de la demande. À cet égard, l'instabilité des
marchés de l’énergie depuis deux ans ainsi que les prévisions de hausse du prix du pétrole à court terme
vont, si elles s'inscrivent dans la durée, avoir un effet sur le niveau des revenus plus marqué dans cette
région que dans toutes les autres examinées dans les présentes Perspectives.
Du fait des conditions difficiles dans lesquelles a lieu la production agricole, le Proche-Orient et l’Afrique
du Nord est l’une des principales régions importatrices nettes de produits alimentaires et les taux
d’autosuffisance pour la plupart des produits y sont faibles, en particulier pour les céréales, l’huile végétale
et le sucre (Graphique 2.15). Sa dépendance aux importations rend cette région particulièrement
vulnérable aux incertitudes liées au marché comme les fragilités du système commercial mondial mises
en évidence par la pandémie de COVID-19, les problèmes logistiques persistants à mesure que la
pandémie se poursuit, et les éventuelles difficultés d’approvisionnement en provenance de la région de la
mer Noire, où la guerre en cours de la Russie contre l’Ukraine risque d’avoir une incidence sur les
exportations des principaux produits (dont le blé, le maïs et les produits oléagineux). La Russie et l’Ukraine
ont toujours été les deux principaux fournisseurs de blé de la région, mais même si le blé vient d'ailleurs,
la flambée des prix des céréales importées suscite des inquiétudes quant à l’accessibilité-prix des produits
alimentaires de base dans les pays à plus faible revenu. Avec des dépenses alimentaires représentant en
moyenne quelque 15 % du budget total des ménages – 33 % dans les pays les moins avancés –, les
variations brutales des revenus et des prix peuvent avoir des répercussions importantes sur le bien-être.17
PERSPECTIVES AGRICOLES DE L’OCDE ET DE LA FAO 2022-2031 © OCDE/FAO 2022
130
Depuis toujours, les ressources limitées de la région ont été utilisées pour financer des politiques publiques
visant à stimuler la production et à réduire la dépendance aux importations de céréales de base. Si de
telles mesures ont pour but de réduire la dépendance commerciale, elles peuvent cependant freiner la
croissance car les céréales sont en concurrence avec des cultures de plus grande valeur en ce qui
concerne l’utilisation des maigres ressources en eau, le résultat étant une disponibilité moindre de produits
frais qui pourraient sinon permettre d'améliorer la diversité de l'alimentation. De surcroît, les conflits
géopolitiques dans la région ont entraîné de nouvelles baisses des investissements et des déplacements
de population, ce qui constitue de nouvelles entraves à la production.
Le secteur de l’agriculture, la foresterie et la pêche représente actuellement quelque 5 % du PIB total de
la région et devrait passer à 4 % en 2031. L’Égypte assure presque 30 % de la valeur nette de la production
agricole, halieutique et aquacole de la région, tandis que les autres pays d’Afrique du Nord en représentent
48 % (14 % pour les PMA et 34 % pour les autres). Ces pourcentages devraient s’accroître d’ici dix ans,
et l’Afrique du Nord représentera presque 80 % de la valeur nette de la production agricole de la région
en 2031.
La croissance démographique, qui joue un rôle important dans l’évolution de la demande, ne devrait
ralentir que modérément, de presque 23 % au cours de la précédente décennie à 20 % dans les dix ans
à venir. Ce taux de croissance, le deuxième plus élevé derrière celui de l’Afrique subsaharienne, portera
la population de la région à plus de 500 millions de personnes en 2031. Presque les deux tiers de cette
population devraient vivre en milieu urbain, ce qui pourrait encourager la consommation de produits de
plus grande valeur, y compris de viande et de produits laitiers, mais aussi de produits essentiels contenant
de l’huile végétale et du sucre. Cela dit, l'accessibilité-prix jouera également un rôle important ainsi que la
forte dépendance à l’égard des recettes provenant des exportations les économies de la région ont été
parmi les plus touchées par la pandémie de COVID-19 en 2020, le revenu par habitant ayant diminué de
plus de 7 % et regagné seulement 1.3 % en 2021. Même dans un contexte de hausse des prix du pétrole,
l’activité économique de la région ne devrait s’accroître que de 3.3 % en 2022, pour atteindre à moyen
terme une moyenne de +1.6 % par an. Il est donc peu probable qu’elle ait une grande influence sur la
demande durant la prochaine décennie. Il s'agit là d'un aspect préoccupant dans une région où une
alimentation saine est financièrement inaccessible pour plus de la moitié de la population (FAO et al.,
2021[5]).
L'un des plus grands défis qui attend la région au cours de la période de projection sera d'assurer
l’accessibilité-prix des produits alimentaires à une population de plus en plus nombreuse, dans un
environnement où les revenus sont faibles. La dépendance aux importations est inévitable compte tenu
des capacités de production limitées et des maigres ressources naturelles ; cependant, dans le contexte
d'un marché mondial de plus en plus instable, une certaine flexibilité dans les politiques publiques et les
pratiques d'approvisionnement sera de mise pour garantir la sécurité alimentaire, car les taux
d’autosuffisance de la région pour la plupart des principaux produits devraient continuer à diminuer au
cours de la prochaine décennie.
2.5.2. Production
L’augmentation de la productivité sera nécessaire pour faire face à un grave manque de
ressources
La production agricole, halieutique et aquacole de la région devrait progresser de 1.6 % par an dans les
dix ans à venir, soit au même rythme que la croissance démographique. La dépendance de la région aux
marchés mondiaux continuera de s’accroître (Graphique 2.14). La valeur totale de la production agricole
provient pour l’essentiel des cultures, dont la croissance moyenne de 1.4 % par an leur suffira à se
PERSPECTIVES AGRICOLES DE L’OCDE ET DE LA FAO 2022-2031 © OCDE/FAO 2022
131
maintenir à 60 % d’ici 2031. La production animale connaît un taux de croissance supérieur – 2.1 % par
an – et sa part dans la valeur totale nette passera à 28 % d'ici 2031.
La production halieutique et aquacole représente une part importante de la valeur totale de la production,
mais sa progression d'un peu moins de 1 % par an la conduira à une légère baisse, pour atteindre 11.2 %
en 2031. L'augmentation de cette production était due récemment à la pêche pratiquée dans les zones
côtières, mais les stocks halieutiques se raréfient, d’où un net ralentissement de l’activité au cours de la
période de projection. La contribution de l’aquaculture à la production totale de produits halieutiques et
aquacoles est en augmentation, sous l’influence de l’Égypte.
La superficie agricole totale devrait rester relativement stable, même si un léger recul des terres
consacrées à la production végétale est attendu d'ici 2031. Ce sera le cas principalement en Arabie
saoudite, où les conditions ne sont pas propices aux cultures à grande échelle, et dans les pays les moins
avancés d’Afrique du Nord. En 2031, presque 38 % de la superficie totale des terres cultivées pourront
être affectées à la production de céréales, contre 34 % pendant la période de référence. Cette
augmentation proviendra en majorité des céréales secondaires et du blé, dont la part dans les terres
utilisées pour la production de céréales devrait s’élever respectivement à 59 % et 38 %.
Les gains de productivité sont une nécessité dans une région où les terres arables et les ressources en
eau sont peu abondantes. Entre 2010 et 2019, la productivité totale des facteurs s’est accrue de seulement
1.2 % par an, principalement du fait d'un apport accru de capital 18. La valeur générée sur un hectare de
terre cultivée a augmenté régulièrement sur les dix dernières années – de 1.4 % par an – et devrait
progresser encore plus vite dans la décennie à venir jusqu'à atteindre 1.6 % par an. Cette tendance résulte
de plusieurs facteurs, dont une intensification des cultures – comme l’atteste le maintien au même niveau
des superficies récoltées, malgré la diminution de 2.8 Mha des superficies exploitées – et une hausse
considérable des rendements. Selon les prévisions, les rendements vont augmenter pour toutes les
cultures importantes : le blé de 0.8 %, le maïs de 0.5 %, les autres céréales secondaires de 1.5 %, le riz
de 1.5 % et les légumineuses de 1.0 % par an en moyenne au cours de la prochaine décennie. Les
rendements du blé s'établiront ainsi à 78 % environ de la moyenne mondiale, tandis que les autres
céréales secondaires ne dépasseront pas 47 %.
La hausse de la production de viande proviendra principalement de la volaille, dont le pourcentage de
progression – 3.1 % par an par rapport à la précédente décennie – devance de loin toutes les autres
viandes, même s'il est nettement plus faible que par le passé. Des progrès sont également attendus pour
la viande bovine, dont la production augmentera de 1.6 % par an, après avoir été en baisse par le passé.
La production de viande ovine restera globalement stable d’ici 2031.
Les émissions directes de GES liées au secteur de l’élevage progresseront dans la région de 3.8 % entre
2019-21 et 2031, ce qui contraste avec les 28.6 % et 24.2 % d'augmentation prévus respectivement pour
la production de viande et de produits laitiers, preuve de l'importance des gains de productivité pour réduire
les émissions. Les émissions imputables aux cultures devraient s'accroître de 2.2 %, tandis que les
émissions directes de l’agriculture augmenteront au total de 3.4 % d'ici 2031. La baisse historique du
volume des émissions par rapport à la valeur unitaire de la production agricole devrait se poursuivre.
2.5.3. Consommation
Le défi est d'opérer un changement vers une alimentation saine et plus variée
Les politiques alimentaires de la région ont traditionnellement été axées sur la sécurité alimentaire en
encourageant la consommation des aliments de base, principalement les céréales, et en favorisant donc
des habitudes alimentaires centrées sur ces produits. Ces dernières années, ces politiques se sont
ouvertes à l’intégration des produits d'origine animale. Il n’empêche que la prévalence de la malnutrition
et le nombre absolu de personnes sous-alimentées ont augmenté ces dernières années et que la
PERSPECTIVES AGRICOLES DE L’OCDE ET DE LA FAO 2022-2031 © OCDE/FAO 2022
132
pandémie de COVID-19 a accéléré cette tendance en 2020. La disponibilité totale en calories dans la
région devrait s'accroître quelque peu, à 3 020 kcal/personne/jour d’ici 2031, soit légèrement en dessous
de la moyenne mondiale. Cela traduit à la fois la lenteur de la reprise économique – il faudra attendre 2025
pour que les revenus par habitant retrouvent les niveaux précédant la pandémie – et la sensibilisation
accrue à la nécessité de se nourrir sainement, comme l’atteste la réduction de l’apport calorique de
produits comme l'huile végétale et les édulcorants. Il existe cependant une grande hétérogénéité entre les
pays : dans les PMA de la région, par exemple, la disponibilité en calories reste faible et ne dépassera pas
2 594 kcal/personne/jour, ce qui est inférieur d’environ 15 % à la moyenne mondiale.
Les projections pour le régime alimentaire moyen dans la région indiquent qu’environ 54 % des calories
viendront des céréales en 2031, soit nettement plus que la moyenne mondiale de 44 %. Un phénomène
similaire se produira pour la consommation de sucre : sa part dans l’apport calorique total sera de 9 %,
alors que la moyenne mondiale est de 7 %. Le régime alimentaire de la région, qui se compose de
féculents et de sucre, est riche en calories mais pauvre en nutriments, et il est souvent associé à une
augmentation des cas de surpoids et d’obésité, ainsi que de diverses maladies chroniques comme le
diabète. Parallèlement, la prévalence de la sous-alimentation, ainsi que du retard de croissance et du
dépérissement chez les jeunes enfants, atteint un niveau élevé dans certains pays, en particulier ceux
frappés par un conflit. Cela laisse à penser que le « triple fardeau » de la malnutrition représentera un défi
que les autorités publiques devront relever sur le moyen terme. Le problème est que l’accessibilité-prix
demeure un obstacle majeur à l’adoption d’une alimentation saine.
Le niveau moyen de disponibilité en protéines dans la région devrait être de 85 g par jour en 2031, soit à
peine plus que pendant la période de référence. La baisse de l’apport de protéines provenant de produits
d’origine végétale devrait être plus que compensée par la consommation d’aliments plus riches en
protéines (viande et produits halieutiques et aquacoles).
La croissance du secteur de l’élevage, en particulier celui de la volaille, entraînera une hausse de 20 %
de l’utilisation des aliments pour animaux dans les dix ans à venir. Des produits comme le maïs, l’orge et
les tourteaux protéiques devraient représenter plus de 75 % du total de l’alimentation animale. La majorité
des aliments pour animaux continueront d’être importés, et les importations de maïs passeront par
exemple de 27 Mt pendant la période de référence à 34 Mt en 2031. Cette tendance est la conséquence
de politiques publiques privilégiant les cultures vivrières plutôt que les cultures fourragères, dans un
environnement où le potentiel de production est très limité.
2.5.4. Échanges
Les importations de produits destinés à l’alimentation humaine et animale vont continuer
d’augmenter
La forte croissance démographique de la région, associée à la capacité de production limitée, continuera
de pousser les importations de produits alimentaires à la hausse au cours de la période de projection. En
2031, la région devrait se classer à la deuxième place mondiale derrière l’Asie développée et de l’Est en
tant qu’importatrice nette de produits alimentaires, mais elle occupera le premier rang en termes
d’importations par habitant. C’est en Arabie saoudite et dans les autres pays du Moyen-Orient (dont les
États du Golfe) que les importations de produits alimentaires par habitant sont les plus élevées
(Graphique 2.14).
Parmi les défis économiques et logistiques suscités par la pandémie, la facture totale des importations de
la région a baissé, en termes réels, entre 2019 et 2020. Après une légère hausse en 2021, elle devrait
s'accroître fortement en 2022 en lien avec la reprise économique. D’ici 2031, le coût des importations de
la région aura augmenté de 29 % par rapport à la période de référence. La hausse se vérifiera pour
presque tous les produits, mais à un rythme moins prononcé qu’au cours de la précédente décennie. En
PERSPECTIVES AGRICOLES DE L’OCDE ET DE LA FAO 2022-2031 © OCDE/FAO 2022
133
2031, les importations de la région conserveront des niveaux élevés sur les marchés mondiaux d'un grand
nombre de produits, dont le blé (26 %), le sucre (22 %) et le maïs (17 %). La région continuera de
représenter une part élevée des échanges mondiaux de viande ovine (33 %), de fromage (19 %) et de
volaille (18 %). Compte tenu du rôle important de la région sur les marchés mondiaux et de celui des
importations sur les marchés intérieurs, les évolutions de ces différents marchés auront de vastes
répercussions en matière de sécurité alimentaire.
Graphique 2.14. Valeur des importations nettes de produits alimentaires par personne de la région
Proche-Orient et Afrique du Nord (produits transformés inclus)
2009-11
USD/cap
2019-21
2031
600
500
400
300
200
100
0
-100
Egypte
Afrique du Nord
Arabie Saoudite
Moyen Orient
Moins avancés
Note : ces estimations sont fondées sur des séries chronologiques provenant du domaine « Indices commerciaux » de FAOSTAT et complétées
à l’aide de la base de données élaborée pour les besoins des Perspectives. Les données relatives aux produits non étudiés dans les
Perspectives ont été obtenues par extrapolation. Les produits transformés, habituellement absents des variables étudiées dans les Perspectives,
sont également pris en compte dans les valeurs du total des échanges. Les valeurs des échanges sont exprimées en USD constants de 201416 et les valeurs des échanges pour la pêche (non disponibles dans l'indice du commerce FAOSTAT) ont été ajoutées sur la base des données
des Perspectives.
Source : FAO (2022). Base de données de FAOSTAT sur la valeur de la production agricole, http://www.fao.org/faostat/fr/#data/QV ;
OCDE/FAO (2022), « Perspectives agricoles de l’OCDE et de la FAO », Statistiques agricoles de l’OCDE (base de données),
http://dx.doi.org/10.1787/agr-data-fr.
StatLink 2 https://stat.link/4oek67
PERSPECTIVES AGRICOLES DE L’OCDE ET DE LA FAO 2022-2031 © OCDE/FAO 2022
134
Graphique 2.15. Ratio d’autosuffisance de certains produits de la région Proche-Orient et Afrique
du Nord
2009-11
%
2019-21
2031
120
100
80
60
40
20
0
Céréales
Poisson
Oléagineux
Produits laitiers
Viande
Huile végétale
Légumineuses
Sucre
Note : on obtient le ratio d’autosuffisance en rapportant la production à la somme de la production et des importations diminuée des exportations,
le tout multiplié par 100.
Source : OCDE/FAO (2022), Perspectives agricoles de l’OCDE et de la FAO ; Statistiques agricoles de l’OCDE (base de données),
http://dx.doi.org/10.1787/agr-outl-data-fr.
StatLink 2 https://stat.link/1c8w7y
PERSPECTIVES AGRICOLES DE L’OCDE ET DE LA FAO 2022-2031 © OCDE/FAO 2022
135
Graphique 2.16. Évolution de la superficie récoltée et de l’utilisation des terres de la région ProcheOrient et Afrique du Nord
Superficie récoltée par groupe de produits (Kha)
Céréales
Légumineuses, racines, tubercules
Oléagineux
Plantes sucrières
Autres productions végétales
512
29 282
2019-21
2 402 1 235
344
524
32 087
2031
2 453 1 222
325
0
10
20
30
40
50
Variation en valeur absolue de la superficie exploitée,
2019-21 à 2031
kha
Cultures
Pâturage
Forêts
Autres
%
3
400
2
200
1
0
0
-200
-1
-400
-2
-600
-3
Egypte
Arabie
Saoudite
Afrique du Moyen Orient
Nord
Moins
avancés
70
80
%
90
100
Variation en pourcentage de la superficie exploitée,
2019-21 à 2031
600
-800
60
-4
Cultures
Egypte
Arabie
Saoudite
Pâturage
Forêts
Autres
Afrique du Nord Moyen Orient Moins avancés
Source : OCDE/FAO (2022), Perspectives agricoles de l’OCDE et de la FAO ; Statistiques agricoles de l’OCDE (base de données),
http://dx.doi.org/10.1787/agr-outl-data-fr.
StatLink 2 https://stat.link/ic1038
PERSPECTIVES AGRICOLES DE L’OCDE ET DE LA FAO 2022-2031 © OCDE/FAO 2022
136
Graphique 2.17. Production animale de la région Proche-Orient et Afrique du Nord
Mt
3.5
Viande bovine
Viande porcine
Viande de volaille
Viande ovine
3
2.5
2
1.5
1
0.5
0
2019-21
2031
Arabie Saoudite
2019-21
2031
Egypte
2019-21
2031
Afrique du Nord
2019-21
2031
Moyen Orient
2019-21
2031
Moins avancés
Source : OCDE/FAO (2022), Perspectives agricoles de l’OCDE et de la FAO ; Statistiques agricoles de l’OCDE (base de données),
http://dx.doi.org/10.1787/agr-outl-data-fr.
StatLink 2 https://stat.link/5nzgw6
PERSPECTIVES AGRICOLES DE L’OCDE ET DE LA FAO 2022-2031 © OCDE/FAO 2022
137
Graphique 2.18. Demande en produits essentiels, quantités d’aliments disponibles et balances des
échanges agricoles dans la région Proche-Orient et Afrique du Nord
Croissance annuelle de la demande totale de produits destinés à l’alimentation humaine et animale et à d'autres usages
%
Due à l'augmentation de la demande par tête (alimentation et autre usage)
En raison de la croissance démographique
4
3
2
1
0
-1
-2
2012-21 2022-31
Céréales
2012-21 2022-31
Viande
2012-21 2022-31
Poisson
2012-21 2022-31
Produits laitiers frais
Aliments de base
kcal
3500
Animal
Graisses
Edulcorants
Autres
2012-21 2022-31
Racines et tubercules
2012-21 2022-31
Sucre
2012-21 2022-31
Huile végétale
Quantité de protéines disponibles par personne et par jour (b)
Quantité de calories disponibles par personne et par jour (b)
Aliments de base
g
Animal
Autres
100
3000
2500
80
2000
60
1500
Egypte
2031
2019-21
2031
2019-21
2031
2019-21
2031
2031
2019-21
2031
2019-21
2031
2019-21
Afrique du Nord Arabie Saoudite Moyen Orient Moins avancés
2019-21
Egypte
2031
0
2019-21
0
2031
20
2019-21
500
2031
40
1000
2019-21
-3
Afrique du Nord Arabie Saoudite Moyen Orient Moins avancés
Balances des échanges agricoles de la région Proche-Orient et Afrique du Nord (c)
Proche-Orient et Afrique du Nord
Arabie Saoudite
Egypte
Moyen Orient
Moins avancés
Afrique du Nord
En milliards USD de 2014-16
20
0
-20
-40
-60
-80
-100
-120
2001
2003
2005
2007
2009
2011
2013
2015
2017
2019
2021
2023
2025
2027
2029
2031
Note : ces estimations sont fondées sur des séries chronologiques provenant des bases de données de FAOSTAT relatives aux bilans
alimentaires et aux indices commerciaux et incluent des produits non considérés dans les Perspectives. a) La croissance démographique est
calculée selon l’hypothèse que la demande par habitant demeure au niveau de l’année précédant la décennie. b) Matières grasses : beurre et
huiles ; Aliments d'origine animale : œufs, poisson, viande et produits laitiers hors beurre ; Aliments de base : céréales, oléagineux,
légumineuses et racines. c) Inclut les produits transformés et la pêche (non couverte par l'indice du commerce FAOSTAT) sur la base des
données des Perspectives.
Source : FAO (2022). Base de données de FAOSTAT sur la valeur de la production agricole, http://www.fao.org/faostat/fr/#data/QV ;
OCDE/FAO (2022), « Perspectives agricoles de l’OCDE et de la FAO », Statistiques agricoles de l’OCDE (base de données),
http://dx.doi.org/10.1787/agr-data-fr.
StatLink 2 https://stat.link/ah3d80
PERSPECTIVES AGRICOLES DE L’OCDE ET DE LA FAO 2022-2031 © OCDE/FAO 2022
138
Tableau 2.4. Indicateurs régionaux : Proche-Orient et Afrique du Nord
Moyenne
Hypothèses macroéconomiques
Population (‘000)
PIB par habitant1 (kUSD)
Production (mrd USD de 2014-16)
Valeur nette de la production agricole, halieutique et
aquacole3
Valeur nette de la production végétale3
Valeur nette de la production animale3
Valeur nette de la production halieutique et aquacole3
Quantité produite (kt)
Céréales
Légumineuses
Racines et tubercules
Oléagineux4
Viande
Produits laitiers5
Produits halieutiques et aquacoles
Sucre
Huile végétale
Production de biocarburants (mln L)
Biodiesel
Éthanol
Superficie exploitée (kha)
Superficie agricole totale
Superficie totale affectée à la production végétale6
Superficie totale des pâturages7
Émissions de GES (Mt éq. 5.54
1.55
..
1.26
2.35
40.6
68.0
26.6
23.2
38.2
68.8
27.6
27.6
37.7
69.6
27.3
24.8
-1.29
1.18
-0.80
-10.01
-1.34
0.76
-0.15
3.8
-0.67
0.21
-0.08
-1.0
2031
PERSPECTIVES AGRICOLES DE L’OCDE ET DE LA FAO 2022-2031 © OCDE/FAO 2022
139
Notes : 1. PIB par habitant en USD constants de 2010. 2. Taux de croissance estimés par les moindres carrés (voir le glossaire). 3. La valeur
nette de la production agricole, halieutique et aquacole est calculée selon la méthode de FAOSTAT, à partir de l’ensemble de produits représenté
dans le modèle Aglink-Cosimo et des valeurs des prix de référence internationaux moyens pour 2014-16. Les projections relatives aux cultures
non incluses dans le modèle ont été calculées sur la base des tendances de plus long terme. 4. Les oléagineux désignent le soja et les autres
graines oléagineuses. 5. Les produits laitiers comprennent le beurre, le fromage, les poudres de lait et les produits laitiers frais, exprimés en
équivalent extrait sec. 6. La superficie des terres cultivées rend compte des parcelles donnant lieu à plusieurs récoltes de grandes cultures.
7. Les pâturages désignent les terres disponibles pour le pacage des ruminants. 8. La disponibilité quotidienne en calories/protéines par habitant
désigne non pas la quantité absorbée, mais la quantité disponible par habitant et par jour. 9. Les aliments de base sont les céréales, les
oléagineux, les légumineuses, les racines et les tubercules. 10. Le taux d’autosuffisance est calculé comme suit : production /
(production + importations - exportations)*100.
Sources : FAO (2022). Base de données de FAOSTAT sur les bilans alimentaires et les indices commerciaux,
https://www.fao.org/faostat/fr/#data; OCDE/FAO (2022), « Perspectives agricoles de l’OCDE et de la FAO », Statistiques agricoles de l’OCDE
(base de données), http://dx.doi.org/10.1787/agr-outl-data-fr.
2.6. Perspectives régionales : Europe et Asie centrale
2.6.1. Contexte
Une région très hétérogène où les évolutions seront dictées par la guerre de la Russie
contre l’Ukraine
Couvrant deux continents, la région Europe et Asie centrale19 comprend des pays se trouvant à des stades
de développement divers et affichant des différences notables en termes de démographie, de ressources
agricoles et de politiques publiques. Les pays représentant la plus grosse partie de la production agricole
régionale sont l’Union européenne, le Royaume-Uni, la Russie, l’Ukraine, la Türkiye et le Kazakhstan. La
région abrite 12 % de la population mondiale, mais la croissance démographique y est variable selon les
pays. Elle devrait globalement rester relativement stable, avec une hausse de seulement 1 % au cours de
la prochaine décennie. Ce résultat est le reflet de la stabilité en Europe occidentale, de la baisse en Europe
orientale et de la hausse de 1 % par an en Asie centrale. La région est très urbanisée et, d’ici 2031, 75 %
de sa population vivra en milieu urbain.
| 15,469
|
tel-04576748-FAMY_2006-11-30.txt_4
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
Les termes d'échange entre blocs et fractures dans les simulateurs de réservoirs fracturés. Sciences de la Terre. Institut National Polytechnique (Toulouse), 2006. Français. ⟨NNT : 2006INPT057H⟩. ⟨tel-04576748⟩
|
None
|
French
|
Spoken
| 7,791
| 13,925
|
Dans le cas d’un processus d’imbibition capillaire pure, les trois directions sont équivalentes puisque le phénomène n’est pas directionnel. On applique donc cette méthodologie dans une direction, puis on reproduit le sous-maillage optimisé résultant sur les autres directions. Dans le cas d’un processus de gravité pure ou de gravito-capillarité, la direction verticale est différenciée des autres. Ainsi, on applique cette méthodologie dans la direction verticale et dans l’une des directions horizontales. Le sous-maillage résultant de l’étude dans une direction horizontale est reproduit sur l’autre direction horizontale. Création du sous-maillage optimal
Création du sous-maillage optimal
Nous avons obtenu un sous-maillage multi-dimensionnel, défini selon le même nombre de directions que le modèle de référence. Toutefois, pour tenir compte des symétries d’écoulement, comme dans le cas de capillarité pure, le sous-maillage peut encore être simplifié, en "regroupant" les sous-maillages dans les directions concernées. Ainsi, dans le cas du processus de capillarité pure, on peut se limiter à un sous-maillage mono-dimensionnel, car toutes les directions jouent le même rôle. Dans un cas gravitaire et gravito-capillaire, le sous-maillage peut être réduit à un sous-maillage bi-dimensionnel : selon la direction verticale et selon l’une des directions horizontales. Remarque
3.3.1 Le modèle de référence simulant un phénomène de gravité pure nous a permis de mettre en évidence un envahissement tri-dimensionnel du bloc par l’eau. 3.3.1 Maillage concentrique de la matrice
Pour s’appuyer réellement sur la physique du phénomène d’imbibition capillaire, il n’est pas nécessaire de reproduire le sous-maillage résultant de la méthodologie dans chacune des directions (Fig. , à gauche). Le processus étant indépendant de la direction considérée en milieu homogène, un maillage concentrique, conforme à l’avancée du front dans le bloc, (Fig.3.7, à droite), suffit à reproduire la progression du fluide imbibant vers l’intérieur du bloc. Ce paragraphe introduit les développements et hypothèses nécessaires pour passer du maillage optimisé dans chacune des directions créé précédemment, de type cartésien, à un maillage concentrique, composé de "couronnes".
FIG. 3.7 – Cas bi-dimensionnel soumis à la capillarité pure : sous-maillage optimisé (à gauche) et sous-maillage concentrique (à droite) Notons Ω(i,j) les mailles numériques du sous-maillage optimisé, et Ωc les "couronnes" composant le sous-maillage concentrique.
Chapitre 3 Méthode de construction d’un sous-maillage optimal
Une couronne est alors définie comme l’ensemble des mailles Ω(i,j) pour i = c ou j = c : Ωc = {Ω(i,j), i = c ou j = c} (3.9) L’hypothèse principale utilisée dans la suite de ces développements est que les inconnues pression et saturation ont la même valeur sur toutes les mailles numériques composant une couronne. Cette hypothèse est vraie si l’écoulement est un écoulement dit piston, c’est-à-dire lorsque le front de progression du fluide ne s’étale pas. Lorsque les équations d’écoulement (2.31) et (2.33) sont intégrées, selon la méthode des volumes finis, sur une maille numérique Ω(i,j), on obtient le système suivant :
n+1 n+1 n+1 n+1 n n V P(i,j) ρw S(i,j) − V P(i,j) ρw S(i,j) ∆t k −A(i−1,j)→(i,j) KMw,(i−1/2,j) k +A(i,j)→(i+1,j) KMw,(i+1/2,j) k −A(i,j−1)→(i,j) KMw,(i,j−1/2) k +A(i,j)→(i,j+1) KMw,(i,j+1/2) k k − P ckw,(i−1,j) ) − P ckw,(i,j) ) − (P(i−1,j) (P(i,j) l(i−1,j)→(i,j) k k k − P ckw,(i,j) ) (P(i+1,j) − P cw,(i+1,j) ) − (P(i,j) l(i,j)→(i+1,j) k k (P(i,j) − P ckw,(i,j) ) − (P(i,j−1) − P ckw,(i,j−1) ) l(i,j−1)→(i,j) k k (P(i,j+1) − P ckw,(i,j+1) ) − (P(i,j) − P ckw,(i,j) ) l(i,j)→(i,j+1) (3.10) = 0 n+1 n+1 n+1 n ρn (1 − S n ) V P(i,j) ρo (1 − S(i,j) ) − V P(i,j) w (i,j) ∆t k −A(i−1,j)→(i, j) KMo,(i−1/2,j) k −A(i,j−1)→(i,j) KMo,(i,j−1/2) k k P(i,j) − P(i−1,j) l(i−1,j)→(i,j) k k P(i,j) − P(i,j−1) l(i,j−1)→(i,j) k + A(i,j)→(i+1,j) KMo,(i+1/2,j) k + A(i,j)→(i,j+1) KMo,(i,j+1/2) k k P(i+1,j) − P(i,j) l(i,j)→(i+1,j) k k P(i,j+1) − P(i,j) l(i,j)→(i,j+1)
avec
:
–
V P(i,j) le volume poreux de la maille numérique Ω(i,j), – A(i−1,j)→(i,j), A(i,j)→(i+1,j), A(i,j−1)→(i,j) et A(i,j)→(i,j+1) les aires d’échange respectives entre les mailles numériques Ω(i−1,j) et Ω(i,j), Ω(i,j) et Ω(i+1,j), Ω(i,j−1) et Ω(i,j) et entre les mailles numériques Ω(i,j) et Ω(i,j+1), k k k k – Mw,(i−1/2,j), Mw,(i+1/2,j), Mw,(i,j−1/2) et Mw,(i,j+1/2) les mobilités massiques respectives aux interfaces entre les mailles numériques Ω(i−1,j) et Ω(i,j), Ω(i,j) et Ω(i+1,j), Ω(i,j−1) et Ω(i,j) et entre les mailles numériques Ω(i,j) et Ω(i,j+1), – l(i−1,j )→(i,j), l(i,j)→(i+1,j), l(i,j−1)→(i,j) et l(i,j)→(i,j+1) les longueurs entre les centres des mailles numériques Ω(i−1,j) et Ω(i,j), Ω(i,j) et Ω(i+1,j), Ω(i,j−1) et Ω(i,j) et entre les centres des mailles numériques Ω(i,j) et Ω(i,j+1). Remarque 3.3.2 L’exposant k se réfère au schéma choisi : k = n pour le schéma explicite, k = n+1 pour le schéma implicite. On définit les attributs des couronnes Ωc de la façon suivante :
Pc = P(i,j) ∀ Ω(i,j) ∈ Ωc, (3.12) Sc = S(i,j) ∀ Ω(i,j) ∈ Ωc, (3.13) kr,c = kr,(i,j) ∀ Ω(i,j) ∈ Ωc, (3.14) lc→c+1 = l(i,j)→(i+1,j) = l(i,j)→(i,j+1) ∀ Ω(i,j) ∈ Ωc, (3.15) φc = φi,j Ac→c+1 = X A(i,j)→(i+1,j) + j, Vc = j, i=c ∀ Ω(i,j) ∈ Ωc, (3.16) (3.17) A(i,j)→(i,j+1) i, i=c X X Vi,j + X j=c, i6=c (3.18) Vi,j i, j=c, i6=c
En sommant les équations (3.10) et (3.11) sur i = c et j = c, où j 6= i, et en remarquant que les termes faisant intervenir la différence de pression entre deux cellules de la couronne s’annulent, on obtient le système suivant :
ρn+1 Scn+1 − ρnw Scn Vc φc w ∆t k − P ck (Pck − P ckw,c ) − (Pc−1 w,c−1 ) lc−1→c k k (Pc+1 − P cw,c+1 ) − (Pck − P ckw,c ) k +Ac→c+1 KMw,c+1/2 lc→c+1 n+1 n+1 n n ρ (1 − Sc ) − ρo (1 − Sc ) Vc φc o ∆t k k − P k Pck − Pc−1 Pc+1 c k k −Ac−1→c KMo,c−1/2 + Ac→c+1 KMo,c+1/2 lc−1→c lc→c+1 k −Ac−1→c KMw,c−1/2 = 0 (3.19) = 0 (3.20)
On remarque que le système (3.19)-(3.20) est une discrétisation du système (2.23)-(2.25) sur un maillage mono-dimensionnel. Ainsi, le nouveau modèle en couronnes, créé en égalant les inconnues des mailles situées à même distance des fissures, est équivalent à un modèle monodimensionnel. Ce sous-maillage est du même type que le sous-maillage proposé par Pruess et Narasimhan [44] dans la méthode MINC, à savoir un sous-maillage élaboré en fonction de la distance à la fracture. 3.3.2 Sous-maillage mono-dimensionnel optimal et pratique
Le sous-maillage "en couronnes" est un sous-maillage mono-dimensionnel optimisé selon le processus étudié. Toutefois, il n’est pas facilement implémentable dans un simulateur de réservoir fracturé car les aires d’échange entre couronnes sont différentes d’une couronne à l’autre. Ce paragraphe décrit comment le sous-maillage en couronnes peut être remplacé par un sous-maillage équivalent, dont l’aire d’échange est constante. L’équivalence est assurée par la conservation de certaines grandeurs.
Méthode de construction d’un sous-maillage
Afin de conserver la cinétique d’écoulement, une grandeur, indépendante du temps, est introduite : la transmissivité entre deux mailles. La transmissivité, définie à l’interface, traduit la facilité du fluide à traverser l’interface entre deux mailles numériques. En une dimension, soit Tc,c+1 la transmissivité entre les mailles numériques indicées c et c + 1, définie par : KAc→c+1 Tc,c+1 = (3.21) lc→c+1 Remarque
3.3.3
La perméabilité est constante sur une maille matrice, donc, a fortiori, sur deux sous-mailles du bloc représentatif voisines. La conservation des transmissivités entre deux mailles ainsi que du volume poreux nous assure donc un processus de déplacement identique dans les deux modèles. De plus, la porosité est aussi conservée, afin de ne pas "fausser" les équations de conservation de la masse. Par contre, l’aire d’échange, qui doit être constante dans le sous-maillage optimal, sera forcément modifiée. L’aire d’échange du modèle optimal est choisie arbitrairement, et notée Aopt. La volonté de conserver le volume poreux et la porosité tout en modifiant l’aire ’échange nous impose de modifier aussi les dimensions des sous-mailles. La dimension, dans la direction sous-maillée, des nouvelles sous-mailles, notée lcopt, est définie par : lcopt = V Pc Aopt φc (3.22) où V Pc désigne le volume poreux de la maille d’indice c, qu’il s’agisse d’une couronne ou d’une nouvelle sous-maille optimisée. La définition d’une nouvelle longueur de maille devrait entraîner une modification de la transmissivité définie par la relation (3.21). Cette difficulté est contournée par l’utilisation d’une option, disponible dans la majorité des simulateurs de réservoir fracturé, permettant d’imposer les valeurs des transmissivités entre deux mailles. Ainsi, le maillage mono-dimensionnel équivalent est construit en : – conservant le nombre de mailles du modèle en couronnes, – conservant la porosité de chaque maille, – imposant une aire d’échange entre deux mailles constante sur le modèle, – calculant la nouvelle longueur des mailles afin de conserver le volume poreux de chaque maille, – imposant, dans le simulateur, la transmissivité entre deux mailles calculée sur le modèle originel.
La Fig
.
3.8
récapitule les
différent
s
sous-maillages construits pour arriver au sous-maillage optimal
3.3.3 Validation du modèle optimal
La validation des sous-maillages optimaux créés est faite par comparaison avec le modèle de référence correspondant. Pour évaluer l’écart entre les résultats, la norme suivante est mise Création du sous-maillage optimal
75 Sous−maillage Sous−maillage Sous−maillage multi−dimensionnel en couronnes optimal F F F F F Hypothese : P,S egales sur une couronne Conservation − de la porosite − des volumes poreux − des transmissivites
FIG. 3.8 – Cas bi-dimensionnel soumis à la capillarité pure : sous-maillage optimisé (à gauche), sous-maillage concentrique (au centre) et sous-maillage optimal (à droite) en place : e= −1 N stest 1X N n=1 n N s−1 ref − s−1 ref n N n N (3.23) où s est la solution du problème, c’est-à-dire la courbe de récupération échantillonnée, et où les indices ref et
se réfèrent respectivement au modèle de référence et au sous-maillage optimal testé. Dans le cas de la simulation d’un processus d’imbibition pure, la Fig. 3.9 présente une comparaison du pourcentage d’huile récupérée en fonction du temps sur quatre modèles différents : – Les résultats sur le cas de référence finement maillé sont tracés en bleu foncé. – Les résultats sur le cas avec sous-maillage multi-dimensionnel sont tracés en bleu clair. – Les résultats sur le cas avec sous-maillage optimal (ici, sous-maillage mono-dimensionnel) sont tracés en rouge. – Les résultats sur le cas double-milieu conventionnel sont tracés en vert. Le cas double-milieu conventionnel correspond à une formulation des échanges pseudo-stationnaire, comme présentée dans le paragraphe 1.2.2, p. 20, utilisant le facteur de forme proposé par Kazemi et al. [29] :!
1 1 1 σKazemi
=
4
(3.24) + + 2 L2x L2y Lz
où Lx, Ly et Lz sont les dimensions du bloc matriciel selon les directions x, y et z, et dans laquelle seule la force capillaire est prise en compte (Quandalle et Sabathier [45], Sabathier et al. [51]). Les résultats du modèle avec sous-maillage optimal sont très proches des résultats de référence : e < 1, 7%.
76 Chapitre 3
Méthode de construction d’un sous-maillage optimal 0,7 HUILE RECUPEREE (%) 0,6 0,5 0,4 0,3 0,2 Modèle de référence Modèle sous−maillé 3D Modèle sous−maillé 1D Modèle double−milieu 0,1 0 −1 10 0 10 1 2 10 10 3 10 TEMPS (j)
FIG. 3.9 – Capillarité pure, cas tri-dimensionnel : comparaisons des différents maillages
De même, les Fig. 3.10 et 3.11 présentent une comparaison des quatre modèles précédents dans le cas de la simulation d’un processus de gravité pure et d’un processus de gravitocapillarité, respectivement. Les sous-maillages optimaux correspondants sont bi-dimensionnels. Une fois encore, les résultats obtenus sur les modèles sous-maillés de façon optimale sont très proches des résultats du modèle de référence : e < 1%. Un sous-maillage peut être défini par le nombre de sous-mailles le composant et par le rapport moyen des longueurs des sous-mailles. Dans les trois cas présentés ci-dessus, le nombre de mailles composant les sous-maillages optimisés (sous-maillage horizontal dans les cas bi-dimensionnels) est compris entre 14 et 16 sous-mailles, et le rapport moyen des longueurs varie entre 1,2 et 1,3 (c’est-à-dire qu’en moyenne, une sous-maille est 1,2 à 1,3 fois plus grande que la sous-maille précédente). Dans les cas faisant intervenir le processus de drainage gravitaire (seul ou couplé avec l’imbibition capillaire), les sous-maillages verticaux sont composés d’environ 10 sous-mailles, avec un rapport de progression moyen légèrement inférieur à 1,5 Un tel sous-maillage optimal du bloc matriciel permet de simuler les échanges entre le milieu matriciel et le milieu fissure de façon précise. Remarque
3.3.4 Ces résultats permettent de vérifier la validité des sous-maillages proposés. Les cas sous-maillés sont des cas simple-milieu, dans lesquels les zones matrice et fracture Anisotropie de forme et de perméabilité 77
Modèle de référence Modèle sous−maillé 3D Modèle sous−maillé 2D Modèle double−milieu 5,5 4,5 3 Eau en place (m ) 5 4 3,5 3 2,5 2 1,5 6 10 7 8 10 10 Temps (s)
FIG. 3.10 – Gravité pure, cas tri-dimensionnel : comparaisons des différents maillages sont différenciées par des valeurs différentes des données selon la zone, comme il a été fait pour le modèle de référence. Il ne s’agit pas de la mise en œuvre d’un modèle mixte. Les études menées jusqu’à présent portaient sur des blocs isotropes en perméabilité, et cubiques, ou plutôt de même longueur selon chacune des dimensions considérées. Le prochain paragraphe s’intéresse aux cas anisotropes en perméabilité (perméabilité différente selon chacune des directions) et non cubiques (de longueurs différentes selon chacune des directions). En effet, la possibilité de reproduire le même maillage dans chacune des directions pour l’obtention du modèle optimisé de même dimension reposait sur le fait que le bloc était cubique et isotrope, des directions (deux dans les cas gravitaire et gravito-capillaire, trois dans le cas capillaire) pouvant alors jouer le même rôle.
3.4 Anisotropie de forme et de perméabilité
Lorsque la même force (force capillaire) agit dans plusieurs directions mais que les perméabilités différent suivant ces directions, les vitesses d’échange dans chaque direction ne sont plus les mêmes. Il n’est plus possible de faire jouer le même rôle à ces directions. On modifie alors les dimensions du bloc, grâce à un changement de variables, afin de se ramener à un bloc isotrope en perméabilité (Besson, [8]). Les développements qui suivent supposent que les trois directions sont soumises uniquement à la force capillaire. Dans le cas gravito-capillaire, il suffit de ne pas tenir compte des
Méthode de construction d’un sous-maillage optimal 5 4,5 Modèle de référence Modèle sous−maillé 3D Modèle sous−maillé 2D Modèle double−milieu 3 Eau en place (m ) 4 3,5 3 2,5 2 1,5 7 8 10 10 Temps (s)
FIG. 3.11 – Gravito-capillarité, cas tri-dimensionnel : comparaisons des différents maillages équations dans la direction verticale z. On étudie un quart de bloc de dimensions a/2, b/2, c et de perméabilités (
ur diagonal) Kx, Ky et Kz respectivement dans les directions x, y et z. L’équation de conservation de la masse s’écrit, pour une phase : ∂
∂
(
φρS
)
−
K
x ∂t ∂x kr ρ ∂P μ ∂x −
Ky
∂
∂y kr
ρ ∂
P
μ ∂y − Kz ∂ ∂z kr ρ ∂P μ ∂z =0 (3.25) Après avoir fixée une perméabilité de référence K, on pose le changement de variables suivant :
s X=x s Y =y s Z=z K, X ∈ Kx K, Y ∈ Ky K, Kz Z ∈ " " A a 0; = 2 2 B b 0; = 2 2 s s s " 0; C = c s # K, dx = Kx # K, dy = Ky # K, Kz s s dz = Kx dX K (3.26) Ky dY K (3.27) Kz dZ K (
3.28
)
L’équation (3.25) s’écrit maintenant :
∂ ∂ (φρS) − K ∂t ∂X kr ρ ∂P μ ∂X ∂ −K ∂Y kr ∂P μ ∂Y ∂ −K ∂Z kr ∂P μ ∂Z =0 (3.29)
L’équation (3.29) est l’équation de conservation de la masse écrite dans le cas d’un bloc isotrope de perméabilité K et de dimensions (A, B, C). Le quart de bloc initialement étudié peut ainsi être remplacé par un bloc isotrope de dimension A/2, B/2 et C suivant les directions x, y et z, et de perméabilité K, dans toutes les directions. Le bloc est maintenant isotrope selon les directions soumises à la seule force capillaire. Toutefois, les dimensions sont différentes dans chaque direction. Nous allons maintenant voir comment la méthodologie de sous-maillage peut être appliquée dans ce cas. Dans un bloc isotrope, les fronts de saturation, évoluant à partir de chacune des faces, sont identiques à un temps donné, quelle que soit la face considérée (hypothèse de l’écoulement de type piston). Toutefois, les dimensions étant différentes dans chaque direction, le front de saturation atteindra le centre du bloc suivant la direction dont la dimension est la plus faible. A ce moment-là, les fronts suivant les deux autres directions seront stoppés, bien que n’ayant pas atteint le centre du bloc (cf Fig. 3.12). La dimension à prendre en compte lors de la création du sous-maillage est ainsi la Eau Huile Durant le processus A l’issue
du processus FIG. 3.12 – Capillarité pure, cas bi-dimensionnel : Avancée des fronts de saturation dans un bloc de dimensions quelconques plus petite des dimensions du bloc isotrope, puisqu’elle va déterminer en premier la fin du processus d’imbibition.
Le
maillage optimal
,
qui
sera
"dupliqué" dans chacune des directions, est donc celui qui décrira l’écoulement monodimensionnel dans un bloc monodimensionnel de dimension égale à la plus petite des longueurs A, B et C.
L’obtention du maillage optimal se déroule donc selon la méthodologie présentée dans le paragraphes 3.3, en privilégiant la plus petite des dimensions du bloc isotrope équivalent. Ce maillage est alors reproduit dans chaque direction. La dimension de la maille centrale dans les deux directions de plus grandes dimensions est calculée comme la différence entre la dimension du bloc et la somme des dimensions des sous-mailles précédentes (cf. Fig. 3.13). Le maillage mono-dimensionnel optimal est ensuite déduit du maillage concentrique. 3.5 Automatisation du sous-maillage optimal 3.5.1 Influence de paramètres pétrophysiques
Les cas présentés dans les paragraphes précédents ont tous été construits avec les mêmes données pétrophysiques (courbes de pression capillaire, de perméabilités relatives, et rapport
80 Chapitre 3 Méthode de construction d’un sous-maillage optimal Derniere sous−maille Direction de plus petite dimension : utilisee pour construire le sous−maillage
FIG. 3.13 – Cas bi-dimensionnel avec anisotropie de forme : sous-maillage de mobilité).
Ce paragraphe a pour vocation d’évaluer l’influence de ces trois paramètres sur le maillage optimisé. De nouveaux cas sont construits, en faisant varier ces paramètres, puis, pour chacun d’eux, le maillage optimisé correspondant est construit. Cette étude a été menée sur des modèles soumis à la force capillaire uniquement. Les résultats peuvent être étendus aux directions horizontales pour les modèles soumis à la force gravitaire, ou aux forces gravitaire et capillaire.
Courbes de pression capillaire
Deux courbes de pression capillaire P cw (Sw ) sont testées, en conservant les mêmes valeurs des points extrêmes : – une courbe de pression capillaire linéaire, de la forme : P cw (Sw ) = P cwmax 1 − Sw − Sorw, 1 − Swi − Sorw – une courbe de pression capillaire homothétique, construite à partir de la courbe de pression capillaire utilisée précédemment dans le cas capillaire (cf. Fig. 3.3, à gauche) : pour chaque point (Sw,P cw ) appartenant à la courbe de pression capillaire initiale, le P cw (Sw ) nouveau point (Sw,P c0w ) est défini par : P c0w (Sw ) =. 4 Ces deux courbes sont tracées sur la Fig.
3.14. Courbes de perméabilités relatives
Deux jeux de courbes de perméabilité relative sont envisagées, en conservant les mêmes valeurs extrêmes : – deux courbes de perméabilité relative linéaires, de la forme : Sw − Swi 1 − Sorw − Swi 1 − Sw − Sorw krow (Sw ) = kromax 1 − Sorw − Swi krw (Sw ) = krwmax
Automatisation du sous-maillage optimal PRESSION CAPILLAIRE P cw LINEAIRE (MATRICE) PRESSION CAPILLAIRE HOMOTHETIQUE Pcw (MATRICE) 2.5 2 2 PRESSION CAPILLAIRE Pcw=Po−Pw w 2.5 cw o PRESSION CAPILLAIRE P =P −P 81 1.5 1 0.5 0 1.5 1 0.5 0 0.1 0.2 0.3 0.4 0.5 0.6 SATURATION EN EAU Sw 0.7 0.8 0.9 0 1 0 0.1 0.2 0.3 0.4 0.5 0.6 SATURATION EN EAU Sw 0.7 0.8 0.9 1
FIG. 3.14 – Courbes de pression capillaire linéaire (à gauche) et homothétique (à droite) – deux courbes de perméabilité relative polynomiale d’ordre 3, de la forme : 3 Sw − Swi 1 − Sorw − Swi 1 − Sw − Sorw 3 krow (Sw ) = kromax 1 − Sorw − Swi krw (Sw ) = krwmax Ces deux courbes sont tracées sur la Fig. 3.15. PERMEABILITES RELATIVES LINEAIRES (MATRICE) PERMEABILITES RELATIVES POLYNOMIALES D’ORDRE 3 (MATRICE) 1
1 krw krow 0.8 0.7 0.7 r 0.8 0.6 0.5 0.4 0.3 0.6 0.5 0.4 0.3 0.2 0.2 0.1 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 SATURATION EN EAU Sw 0.7 0.8 0.9 krw krow 0.9 PERMEABILITES RELATIVES k PERMEABILITES RELATIVES k r 0.9 1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 SATURATION EN EAU Sw 0.7 0.8 0.9 1
FIG. 3.15 – Courbes de perméabilité relative linéaire (à gauche) et polynomiale d’ordre 3 (à droite)
Rapports de mobilité
Deux rapports de mobilité R∗ sont envisagés. Le rapport de mobilité peut être modifié via l’un des quatre termes constitutifs (viscosité de l’huile et de l’eau, perméabilité relative Méthode de construction d’un sous-maillage optimal maximale de l’huile et de l’eau). Ici, c’est la viscosité de l’huile qui est modifiée. Les deux rapports de mobilité testés sont : – R∗ = 0, 138, comme défini dans la section 3.1.2, – R∗ = 4, 14, en multipliant la précédente viscosité de l’huile par 30. Résultats En combinant les différentes valeurs des trois paramètres étudiés, huit cas ont été créés puis étudiés. Le nombre de mailles est quasiment constant, et comme dans les cas précédents, le rapport de progression moyen demeure compris entre 1,2 et 1,35. L’erreur e, entre le modèle de référence et le modèle optimal, a été évaluée pour chacun des jeux de données pétrophysiques. Elle est très faible, de l’ordre de 0,1%, pour les cas mettant en jeu des courbes de perméabilités relatives linéaires, et légèrement plus élevée, mais n’excédant pas 1,3%, dans les cas mettant en jeu des courbes de per abilités relatives polynômiales d’ordre 3. 3.5.2 Conclusions
La méthode d’obtention d’un sous-maillage mono- ou bi-dimensionnel est basée sur une étude de la physique des écoulements lors d’un processus d’imbibition capillaire pure, de gravité pure ou de gravito-capillarité. Cette méthode peut être appliquée quel que soit le bloc de départ (dimensions, anisotropie) et les données pétrophysiques (courbes de perméabilité relative, de pression capillaire, rapport de mobilité), Toutefois, il semble impossible de réitérer cette méthode d’obtention pour chacun des blocs représentatifs lors d’une étude à grande échelle dans un simulateur de réservoir fissuré. Même si cette méthode était totalement automatisée, le coût du pré-traitement serait prohibitif. Il s’agit donc de déterminer de façon immédiate un sous-maillage mono- ou bi-dimensionnel optimisé connaissant la géométrie d’un bloc, son éventuelle anisotropie, les données pétrophysiques du milieu matriciel et les forces en présence. Dans les paragraphes composant ce chapitre, plusieurs cas de figure ont été envisagés, et plusieurs remarques générales concernant les sous-maillages peuvent être faites. Dans le cas capillaire pur, ainsi que pour les directions horizontales des cas gravitaire et gravito-capillaire, le nombre de sous-mailles varie peu, entre 11 et 18 sous-mailles, sans que la dimension du problème, ou une éventuelle anisotropie de forme n’ait d’influence. Le nombre moyen de mailles est 15. Le rapport de progression moyen entre les tailles de deux sous-mailles voisines demeure compris entre 1,2 et 1,35, les plus grands rapports de progression étant de façon logique associés aux maillages comprenant le moins de mailles. Dans la direction verticale, intervenant dans les cas gravitaire pur et capillo-gravitaire, le nombre de sous-mailles est moyenne de 10, et le rapport de progression moyen entre deux sous-mailles est, dans les deux cas, légèrement inférieur à 1,5. Connaissant le nombre de mailles constituant le maillage, et le rapport de progression Conclusion 83 moyen, il est alors possible de créer de façon automatique un maillage optimisé mono- ou bi-dimensionnel.
3.6 Conclusion
Une méthodologie de sous-maillage, basée sur la compréhension physique des processus d’écoulement, a été proposée dans le cas d’écoulements capillaires, gravitaires et gravitocapillaires. Après plusieurs étapes, le sous-maillage résultant est mono-dimensionnel, ou bidimensionnel si la gravité est considérée. L’indépendance des sous-maillages aux paramètres pétrophysiques permet de proposer une automatisation de ce sous-maillage au sein d’un simulateur de réservoir, en fournissant comme donnée le nombre de sous-mailles et le rapport moyen des longueurs entre sous-mailles.
Chapitre 4 Résultats
Ce chapitre présente plusieurs cas traités avec le nouveau modèle mixte faisant l’objet de ce travail de thèse. Les cas-test proposés permettent de valider l’utilisation du modèle mixte pour la simulation précise des échanges entre régions matrice et fracture dans un réservoir fracturé, mais aussi de mettre en évidence les limites de validité du modèle proposé. Les cas de validation du modèle mixte font l’objet du premier paragraphe. Par comparaison avec des simulations de référence et des simulations conventionnelles (basées sur l’hypothèse d’écoulements pseudo-permanents), ils mettent en évidence le gain de précision apporté par notre méthode. Le second paragraphe propose des cas-tests se situant hors du domaine de validité des modèles mixtes, afin de mettre en évidence les limites de ce domaine.
4.1 Validation du modèle mixte
L’implémentation, dans le simulateur de réservoir ATHOS, d’un modèle mixte, consistant en un sous-maillage mono- ou bi-dimensionnel des blocs matriciels représentatifs, est validée dans ce paragraph sur plusieurs exemples. Nous considérons ici un phénomène d’imbibition capillaire pure. Dans chacun des exemples présentés, les résultats obtenus avec le modèle mixte (sousmaillage à une dimension des blocs matriciels représentatifs) seront comparés à des résultats de référence, obtenus sur un modèle simple-milieu finement maillé, et à des résultats obtenus sur un modèle dit conventionnel. Ce modèle conventionnel est un modèle double-milieu, basé sur l’hypothèse d’un régime pseudo-stationnaire, et dont le terme d’échange entre les régions matrice et fracture est formulé via l’utilisation du facteur de forme défini par Kazemi et al. [29], présenté par l’équation (3.24) (cf. paragraphe 3.3.3, p. 74). Seule la force capillaire est prise en compte, en annulant les coefficients pilotant les forces gravitaire et visqueuse.
4.1.1 Chapitre 4 Résultats Cas-test 1 : cas mono-maille, mono-bloc, avec conditions aux limites stationnaires
Le premier cas-test est extrêmement simple : il s’agit d’une unique maille double-milieu, c’est-à-dire une maille fracture et une maille matrice superposées. L’échange matrice-fracture est mono-dimensionnel selon la direction x, c’est-à-dire que seules les deux faces orthogonales à l’axe x peuvent échanger des fluides avec la fracture limitrophe. La maille matrice ne contient qu’un bloc matriciel, de mêmes dimensions que la maille matrice. Ce bloc matriciel est initialement saturé en huile. La maille fracture est emplie d’eau, et est considérée comme un réservoir infini d’eau (porosité quasi-infinie). Les conditions aux limites appliquées au bloc matriciel sont donc stationnaires, puisque le bloc est, à chaque instant, entouré uniquement d’eau (Sw = 1). Le gradient de pression dans la fracture est donc nul et ce cas se situe dans les limites de ité du modèle mixte. Le modèle mixte compte 15 sous-mailles, selon la direction x. Le rapport de progression moyen des sous-mailles est 1,25. Le modèle de référence simple-milieu finement maillé est constitué de 41 mailles dans la direction x, seule direction maillée. La première représente la zone fracture, les 40 autres la zone matrice. Les trois modèles sont représentés schématiquement sur la Fig. 4.1. Données Le bloc est de dimensions 6,1 m × 0,1 m × 0,1 m. Le sous-maillage étant mono-dimensionnel, on se limite dans le modèle de référence et dans le modèle mixte à l’étude d’un demi-bloc de dimensions 3,05 m × 0,1 m × 0,1 m. Les données pétrophysiques sont détaillées dans le Tab 4.1. Les courbes de perméabilités relatives sont formulées analytiquement selon le modèle de Corey : krp = Spr (4.1) où Sp est la saturation normée (entre 0 et 1) de la phase p et r est le coefficient de Corey. La courbe de pression capillaire dans la région matrice est linéaire entre les points extrêmes. Les données thermodynamiques, relatives à la composition du fluide, sont données dans le Tab. 4.2. La pression de référence est définie au centre du bloc.
Fracture Matrice Reference simple−milieu axe de symetrie barriere impermeable Double−milieu sous−maille F M axe de symetrie barrieres impermeables Double−milieu conventionnel F M
FIG. 4.1 – Cas-test 1 : modèle simple-milieu finement maillé de référence (en haut), modèle mixte (au centre) et modèle double-milieu conventionnel (en bas) Résultats
La Fig. 4.2 compare la quantité d’eau en place (en m3 ) pour les trois modèles. Le modèle simple-milieu finement maillé de référence est tracé en bleu, le modèle mixte en rouge et le modèle conventionnel en vert. Les résultats du modèle mixte sont très proches de ceux du modèle de référence, et améliorent considérablement c du modèle double-milieu conventionnel. 4.1.2 Cas-test 2 : cas mono-maille, mono-bloc, avec conditions aux limites quasi-stationnaires
Ce second cas-test diffère du précédent par la volonté de faire varier au cours du temps les conditions aux limites appliquées au bloc. Pour ce faire, on introduit dans notre cas des 88
Résultats Compressibilité de la roche (bar−1 ) Volume poreux (m3 ) Perméabilité Kx (mD) Perméabilité Ky (mD) Perméabilité Kz (mD) Saturation résiduelle Sorw Saturation irréductible Swi Pression capillaire min. P cw,min (bar) Pression capillaire max. P cw,max (bar) Perméabilité relative en eau max. krwmax Perméabilité relative en huile max. krwmax Coefficient de Corey r Région matrice Région fracture 5.10−5 0,008845 1 0 0 0,25 0,2 0 2,3 0,23 1 1 5.10−5 150 10000 10000 10000 0 0 0 0 0,23 1 1 TAB
. 4.1
–
Cas
-
test
1 :
Données p
étrophysique
s
Masse volumique (g.cm−3 ) Compressibilité (bar−1 ) Viscosité (cPo) Phase eau Phase huile 1,0412 5, 076.10−5 0,35 0,8192 6.10−4 0,21
TAB. 4.2 – Cas-test 1 : Données thermodynamiques puits, qui permettent de faire varier la saturation en eau dans la maille fracture au cours du temps. L’écoulement est mono-dimensionnel selon la direction y. La maille double-milieu étudiée, identique
à celle présentée dans le précédent cas
-
test, est
donc
précédée et suivie de deux mailles double-milieu supplémentaires. Ces deux mailles fracture contiennent chacune un puits, l’un injecteur, l’autre producteur. Pour simplifier le problème, les mailles matrice associées sont des mailles mortes (de porosité nulle), donc ne contenant pas de fluide. Initialement, les trois mailles double-milieu sont emplies d’huile à la turation maximale et, au début de la simulation, de l’eau est injectée par le puits injecteur. Le puits producteur, produisant au même débit est ouvert aussi dès le début de la simulation. Le modèle mixte compte, dans le bloc matriciel central, 15 sous-mailles, selon la direction y. Le rapport de progression moyen des sous-mailles est 1,25. Le modèle simple-milieu finement maillé de référence correspondant est constitué de 22 mailles dans la direction x, et 21 dans la direction y. De plus, nous avons construit un second modèle simple-milieu finement maillé, dans lequel
Validation du modèle mixte 89 −3 14 x 10 Reference simple−milieu Double−milieu sous−maille Double−milieu conventionnel 10 3 EAU EN PLACE (m ) 12 8 6 4 2 4 10 5 10 6 10 7 10 TEMPS (s)
FIG. 4.2 – Cas-test 1 : Eau en place en fonction du temps le bloc représentatif associé à la maille centrale n’est maillé que dans la direction y, qui est la direction de sous-maillage. Ce modèle est constitué de 3 mailles dans la direction x (dont les deux extrêmes contiennent les puits) et 21 dans la direction y, comme le cas simple-milieu finement maillé de référence. Les quatre modèles sont représentés schématiquement sur la Fig. 4.3. Données
Le bloc a pour dimensions 0,25 m × 0,5 m × 0,1 m. Le sous-maillage étant monodimensionnel, on se limite dans le modèle de référence et dans le modèle mixte à l’étude d’un demi-bloc de dimensions 0,25 m × 0,25 m × 0,1 m. Les données pétrophysiques pour la maille double-milieu centrale sont identiques à celles du cas-test 1 (Tab. 4.1), à l’exception de la porosité et des perméabilités, détaillées dans le Tab 4.3. Dans les mailles fracture contenant les puits, la porosité est égale à 1. Les données pétrophysiques des mailles matrice associées à ces mailles fracture ne sont pas définies ici car elles sont inutilisées, puisque ces mailles n’interviennent pas dans la Le débit des puits est de 2, 08.10−7 m3.s−1. Les deux puits sont ouverts au début de la simulation. Le débit est volontairement choisi élevé pour maintenir des conditions aux limites constantes sur le bloc, à la phase initiale de balayage d’huile en place près, éviter 90
Chapitre 4 Résultats
axe de symetrie barriere imper− meable Reference simple−milieu Bloc matriciel Inj. Prod Puits Puits Fracture axe de symetrie barriere imper− meable Simple−milieu 1D Bloc matriciel Inj. Prod Puits Puits Fracture Inj. F F M barrieres imper− meables M barrieres imper− meables Prod F Double−milieu sous−maille M axe de symetrie Inj. F F M barrieres imper− meables M barrieres imper− meables Prod F Double−milieu conventionnel M
FIG. 4.3 – Cas-test 2 et 3 : (de haut en bas) modèle simple-milieu finement maillé de référence, modèle simple-milieu finement maillé 1D, modèle mixte et modèle double-milieu conventionnel
Validation
du m
odèle mixte 91 Région matrice Région fracture 0,29 0 1 0 0,005 10000 10000 10000 Porosité Perméabilité Kx (mD) Perméabilité Ky (mD) Perméabilité Kz (mD)
TAB. 4.3 – Cas-test 2 : porosité et perméabilités les variations de saturation durables dans la maille fracture centrale et ainsi rester dans le domaine de validité du modèle mixte. Les données thermodynamiques, relatives à la composition du fluide, sont identiques à celles du cas-test 1 (Tab.4.2). Résultats
La Fig. 4.4 compare la quantité d’eau en place (en m3 ) pour les trois modèles. Le m
odèle
simple
-milieu
fin
ement
ma
illé de
référence est tracé
en bleu
, le modèle simple-milieu monodimensionnel en noir, le modèle mixte en rouge et
le
modèle conventionnel en vert. −3 3 x 10 Reference simple−milieu 2D Simple−milieu 1D Double−milieu sous−maille Double−milieu conventionnel 3 EAU EN PLACE (m ) 2.5 2 1.5 1 0.5 4 10 5 10 TEMPS (s)
FIG. 4.4 – Cas-test 2 : Eau en place en fonction du temps 92
Chapitre 4 Résultats
Le modèle mixte reproduit quasiment exactement le comportement du modèle de référence. Par contre, le modèle double-milieu conventionnel fournit une cinétique beaucoup trop lente des échanges.
4.2 Limites du modèle mixte
Les limites de validité du modèle mixte ont été présentées dans le paragraphe 1.3.1, p. 21, en particulier par la relation (1.24). Nous avons donc cherché à mettre en évidence ces limites en créant des cas pour lesquels le présent modèle mixte n’est pas adapté.
4.2.1 Cas-test 3 : cas mono-maille, mono-bloc, avec conditions aux limites non-stationnaires
Ce cas est le même que le précédent (cf Fig. 4.3), à l’exception de la valeur du débit aux puits. Le débit est diminué d’un facteur 100. En diminuant le débit, on crée, le long du bloc, une variation de la saturation locale. Dans cette situation, représentée sur la Fig. 4.5, on constate que l’envahissement du bloc par l’eau se fait de façon radiale. En effet, le débit est tellement faible que toute l’eau injectée rentre immédiatement dans le bloc, sans remplir la fracture.
FIG. 4.5 – Cas-test 3 : Saturation en eau dans le modèle de référence, t > 0 Limites du modèle mixte 93
Un modèle sous-maillé mono-dimensionnel ne permet pas de reproduire ce comportement. La Fig. 4.6 présente la quantité simulée d’eau en place en fonction du temps pour les quatre modèles. Comme prévu, le modèle mixte surestime l’avancée du front d’eau dans le bloc. Toutefois, il apporte une amélioration par rapport au modèle double-milieu conventionnel qui, une fois encore, prévoit une cinétique trop lente des échanges.
−3 3 x 10 Reference simple−milieu 2D Simple−milieu 1D Double−milieu sous−maille Double−milieu conventionnel 3 EAU EN PLACE (m ) 2.5 2 1.5 1 0.5 5 10 TEMPS (s)
FIG. 4.6 – Cas-test 3 : Eau en place en fonction du temps 4.2.2 Cas-tests 4 et 5 : cas mono-maille, multi-blocs, avec conditions aux limites quasi-stationnaires
Ces quatrième et cinquième cas-tests ont pour objectif d’évaluer l’hypothèse de représentativité d’un bloc unique par maille. On considère toujours trois mailles double-milieu, dont les deux extrêmes contiennent, dans les mailles fracture, les puits. La maille matrice centrale contient maintenant plusieurs blocs matriciels, de même taille, alignés selon la direction x. Pour conserver la même cinétique que dans le second cas-test, la dimension de cette maille matrice est multipliée par le nombre de blocs dans la direction x. Ainsi, les blocs matriciels ont toujours la même dimension qu’avant.
Cas-test 4 : 4 blocs par maille
Dans ce quatrième cas-test, la maille matrice centrale contient 4 blocs. La dimension de la maille double-milieu centrale est donc multipliée par 4.
Chapitre 4 Résultats
Le modèle mixte compte, dans le bloc matriciel représentatif, 15 sous-mailles, selon la direction y. Le rapport de progression moyen des sous-mailles est 1,25. Le modèle simple-milieu finement maillé de référence correspondant est constitué de 82 mailles dans la direction x (20 mailles par bloc, plus 2 mailles puits), et 21 dans la direction y. Excepté ces modifications, ce cas-test est identique au cas-test 2. En particulier le débit est identique à celui choisi dans le cas-test 2, c’est-à-dire un débit de 2, 08.10−7 m3.s−1. Ainsi, la cinétique des échanges sur un bloc est identique à celle du cas-test 2. Par contre, cette cinétique n’aura pas lieu au même moment pour chaque bloc. La Fig. 4.7 compare la quantité d’eau en place (en m3 ) pour les trois modèles. Le modèle simple
-milieu finement maillé de référence est tracé en bleu, le modèle mixte en rouge et le modèle conventionnel en vert. −3
11 x 10 Reference simple−milieu 2D Double−milieu sous−maille Double−milieu conventionnel 10 3 EAU EN PLACE (m ) 9 8 7 6 5 4 3 4 10 5 10 TEMPS (s)
FIG. 4.7 – Cas-test 4 : Eau en place en fonction du temps
Le modèle mixte peine à reproduire le comportement du modèle de référence lors des temps courts, c’est-à-dire durant la période transitoire. Il surestime durant cette période la quantité d’eau pénétrant dans le bloc. Lorsque le régime pseudo-permanent est mis en place, les résultats du modèle simple-milieu finement maillé de référence et du modèle mixte sont très proches. Toutefois, même durant la période transitoire, les résultats prédits par le modèle mixte sont bien meilleurs que ceux du modèle double-milieu conventionnel. Limit
Cas-test 5 : 12 blocs par maille
Dans ce cinquième cas-test, la maille matrice centrale contient 12 blocs. La dimension de la maille double-milieu centrale est donc multipliée par 12. Hormis cette modification, le cas est identique au précédent. Le modèle mixte compte, dans le bloc matriciel représentatif, 15 sous-mailles, selon la direction y . Le rapport de progression moyen des sous-mailles est 1,25. Le modèle simple-milieu finement maillé de référence correspondant est constitué de 242 mailles dans la direction x (20 mailles par bloc, plus 2 mailles puits), et 21 dans la direction y. Excepté ces modifications, ce cas-test est identique au cas-test 2. En particulier le débit est identique à celui choisi dans les cas-test 2 et 4, c’est-à-dire un débit de 2, 08.10−7 m3.s−1. Ainsi, la cinétique des échanges sur un bloc est identique à celle des cas-tests 2 et 5. Par contre, cette cinétique n’aura pas lieu au même moment pour chaque bloc. La Fig. 4.8 compare la quantité d’eau en place (en m3 ) pour les trois modèles. Le modèle simple-milieu finement maillé de
référence est
trac
é en bleu, le modèle mixte en rouge et le modèle conventionnel en vert
.
0.035 Reference simple−milieu 2D Double−milieu sous−maille Double−milieu conventionnel 0.025 3 EAU EN PLACE (m ) 0.03 0.02 0.015 0.01 0.005 4 10 5 10 TEMPS (s)
FIG. 4.8 – Cas-test 5 : Eau en place en fonction du temps
Dans ce cas, le modèle mixte ne reproduit pas le comportement du bloc matriciel. La cinétique prévue par le modèle mixte est trop rapide : en effet, le bloc représentatif étant situé au centre de la maille, il est atteint par le front d’eau bien avant les blocs situés à la fin de la maille dans le cas simple-milieu. La quantité d’eau en place est alors surestimée. Toutefois, le modèle mixte, aux temps longs, finit par coincider avec le modèle de référence, 96 Chapitre 4 Résultats offrant ainsi une amélioration par rapport au double-milieu. Validité de l’hypothèse du bloc matriciel unique représentatif
Peu de simulations visant à metttre en évidence l’influence de l’hypothèse du bloc représentatif ont été effectuées. Toutefois, comme nous pouvions le supposer, lorsque le nombre de blocs matriciels dans une maille augmente, la précision de la simulation des échanges diminue. Ainsi, les résultats du modèle mixte sur le cas 5 (12 blocs dans la maille matrice centrale) reproduisent moins bien le comportement de référence que sur le cas 4 (4 blocs par maille). Une étude de sensibilité plus approfondie sur le nombre de blocs par maille permettrait de vérifier ce phénomène, et même de trouver un critère de validité de l’hypothèse du bloc représentatif.
Conclusions
Durant ce travail de thèse, nous nous sommes intéressés à la modélisation des transferts entre milieux constitutifs dans les simulateurs de réservoirs fracturés. L’objectif de ce travail était de pallier, dans le cas d’écoulements multiphasiques, les insuffisances de la formulation pseudo-permanente, la plus courante, et de proposer une méthodologie innovante, basée sur l’utilisation d’un modèle mixte, afin d’améliorer la modélisation de ces termes d’échange, et donc de simuler de façon plus précise et fiable les profils de production des réservoirs naturellement fracturés. Dans un premier chapitre, nous avons étudié les difficultés liées à la simulation de réservoirs fracturés, et les différentes méthodes présentées dans la littérature pour les pallier. Dans un premier temps, nous avons présenté les différentes échelles impliquées dans la description des écoulements dans les réservoirs naturellement fracturés. La difficulté est alors de proposer des lois régissant les écoulements à une échelle macroscopique, utilisée pour la simulation des écoulements sur l’ensemble d’un réservoir. Puis, sur l’exemple de l’écoulement d’un fluide monophasique faiblement compressible, nous avons introduit les modèles double-milieu, modèles conventionnels homogénéisés, couramment utilisés, et les modèles mixtes, partiellement homogénéisés, couplant une description à grande échelle des écoulements dans le réseau de fractures et à petite échelle dans les blocs de roche matrice, contenant les hydrocarbures. Une confrontation des deux catégories de modèles a permis de comprendre les approximations grossières effectuées dans les modèles double-milieu, et donc mettre en évidence l’intérêt des modèles mixtes pour une simulation précise des échanges matrice-fracture. Enfin, un état de l’art consacré à la question des échanges multiphasiques dans les réservoirs fracturés insiste sur la complexité du problème posé, et sur la multitude de méthodes existantes. La méthode de sous-maillage des blocs matriciels, qui, sous certaines contraintes opérationnelles (comme la programmation au sein d’un simulateur conventionnel), se rapproche de l’utilisation des modèles mixtes, a retenu notre attention et sera privilégiée dans la suite de notre travail. Le second chapitre porte sur la modélisation des écoulements multiphasiques dans les réservoirs naturellement fracturés dans le cas de l’utilisation d’un modèle mixte pour décrire les écoulements au sein des blocs matriciels. Tout d’abord, nous avons rapidement rappelé comment obtenir les lois d’écoulement, à 97 Conclusions l’échelle locale, dans un milieu poreux hétérogène, en associant l’application des lois de Darcy généralisées et de conservation de la masse. Puis ces lois sont étendues au cas d’un milieu composé de deux domaines distincts : une partie fracture et une partie matrice, de propriétés différentes. On s’intéresse alors particulièrement aux conditions aux limites écrites l’interface entre les deux domaines, et traduisant les échanges de fluides à cette frontière. Après homogénéisation partielle du système obtenu pour créer notre modèle mixte, nous avons détaillé les choix numériques faits afin de permettre la programmation et la résolution numérique du modèle mixte. La discrétisation du réservoir s’appuie sur la représentation en double-milieu conventionnellement adoptée par les simulateurs de réservoir, tels que le logiciel ATHOS. La discrétisation temporelle, quant à elle, fait apparaître un découplage des systèmes afin de minimiser le coût numérique de la résolution, et permettre une éventuelle parallélisation future. Finalement, les systèmes sont détaillés, et leur forte non-linéarité nous amène à utiliser la méthode de Newton pour leur résolution. La création d’un sous-maillage optimisé selon les phénomènes d’écoulements mis en jeu fait l’objet du troisième chapitre. Nous avons dans un premier temps présenté la méthodologie proposée pour créer un sousmaillage multi-dimensionnel qui permette de reproduire les états transitoires des processus physiques étudiés (imbibition capillaire et gravité). Le nombre de dimensions de ce sous-maillage a ensuite été réduit en tenant compte des symétries d’écoulement présentes dans le cas d’un processus de capillarité pure. Nous avons ainsi mis au point un sous-maillage optimal et simple à mettre en œuvre dans un simulateur conventionnel, applicable au cas de blocs matriciels de géométrie parallélépipédique rectangle quelconque et d’une matrice anisotrope en perméabilité. L’étude de sensibilité aux paramètres pétrophysiques valide plus avant les paramètres du sous-maillage défini plus haut, et permet finalement d’aboutir à une procédure de génération automatique d’un sous-maillage optimal utilisable pour les simulation de réservoir pour ce type d’échanges matrice-fracture. Enfin, le dernier chapitre présente les premiers résultats obtenus à partir du simulateur ATHOS modifié pour permettre la prise en compte de notre modèle mixte. La première partie porte sur la validation du modèle mixte. Les cas présentés se placent tous dans les limites de validité du modèle mixte. Une comparaison des résultats ainsi obtenus avec les résultats conventionnels a mis en évidence le gain de précision apporté par le modèle mixte. Dans un second temps, les cas-tests se situent hors du domaine de validité du modèle mixte. Ils nous ont permis de mettre en évidence les limites de notre modèle, en particulier de l’hypothèse forte du bloc matriciel représentatif par maille, sans pour autant remettre en question l’amélioration apportée par le modèle mixte sur le modèle double-milieu conventionnel.
Conclusions 99
En conclusion, ces travaux de thèse démontrent l’intérêt de l’utilisation des modèles mixtes pour la simulation d’écoulements multiphasiques au sein de réservoirs naturellement fracturés. Nous avons proposé une méthodologie complète afin de permettre l’introduction d’un modèle mixte dans un simulateur conventionnel, et ce avec un minimum de modifications. Il n’est donc pas nécessaire de reconcevoir l’architecture des simulateurs de réservoir existants, mais seulement d’en modifier ou compléter certains éléments, ce qui présente un intérêt pratique certain. De plus, nos premiers tests mettent en évidence un gain de précision important comparé à un modèle conventionnel, et donc la plus grande fiabilité d’un modèle mixte pour les prévisions de production des réservoirs fracturés.
| 38,212
|
2019AZUR0020_10
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,019
|
L’insécurité transfrontalière en Afrique de l’Ouest : le cas de la frontière entre le Niger et le Nigeria
|
None
|
French
|
Spoken
| 7,060
| 11,373
|
Selon l’auteur, le résultat est en effet peu efficace, car il est possible de détruire une partie des du contingent insurrectionnel et de capturer un territoire, mais cela déclenchera le repli des insurgés dans une autre région et la reconstitution de leurs forces (repli des combattants de BH au Niger et au Tchad après la forte répression de l’Etat nigérian à partir de 2007). Il est aussi recommandé de ne pas utiliser les moyens des insurgés, les opérations de type “commando” ne pouvant pas être la seule réponse, de même que le terrorisme serait contreproductif, car il entrainerait un désordre favorable aux irréguliers388. Revenons sur Abubacar Shekau. Il est né au Nigeria entre 1965 et 1975 à Shekau, un village d’agriculteurs et d’éleveurs de Yobe, une zone frontalière avec le Cameroun, le Tchad et le Niger. Décrit comme grand et mince et surtout mystérieux, il grandit dans un quartier défavorisé de Maiduguri « le fief de BH ». Selon Jeune Afrique, "Il traîne dans la rue, fume de la marijuana", et "comme beaucoup de jeunes du coin, il est fasciné par Mohamed Yusuf". Il rencontre Yusuf par l’entremise d’un proche, d’après la BBC, et se lance à ses côtés dans la lutte armée pour la création d'un État islamique appliquant la charia, dans le nord du Nigeria, jusqu’à devenir son bras droit389. D’ailleurs on le voit à côté de son leader dans certaines de ses vidéos de prêche. Après 2009, Abubacar Shekau a pu prendre le temps de réorganiser le mouvement, avec l’aide d’autres groupes terroristes au Sahel comme AQMI, les Shebaab somaliens, etc.390, particulièrement avec le soutien d’AQMI qui aurait permis de se structurer391. Ces lignes de Zabée BETCHÉ en disent quelque chose : « Pendant un an, on n’entendra plus parler de Boko Haram. En fait, les survivants ont fui au Niger et au Tchad où ils se
388 Nicolas PICCIOTTO et Simon WASSERMAN, « Géopolitique des guerres asymétriques », Classe Internationale, en ligne : <https://classe-internationale.com>, publié le 6 février 2016 (consulté le 20 aout 2017). 389 Benoît ZAGDOUN, « Qui est Abubakar Shekau, le chef fanatique de Boko Haram? », Franceinfo, en ligne : <http://www.francetvinfo.fr>, publié le 12 mai 2014 (consulté le 26 septembre 2017). 390 Bonaventure Cakpo GUEDEGBE, Boko Haram: Bras armé du terrorisme international, déstabilisationdu Nigeria et reconfiguration géopolitique de la zone sahélienne, Observatoire géopolitique du religieux, Institut de Relations Internationales et Stratégiques, 2015, p. 3, en ligne : <http://www.iris-france.org>. 391 Gérard CHALIAND et Michel JAN, Vers un nouvel ordre du monde, Paris, Editions du Seuil, avril 2013, p. 184. 150 | P a g e
Première partie réorganisent. Pour mieux resurgir en septembre 2010, quand ils attaquent la prison de Bauchi et libèrent 700 prisonniers, dont près de 200 de leurs membres »392. Depuis la prise de la direction du mouvement par Abubacar Shekau, la secte connait une dérive mafieuse et tombe dans la violence terroriste, dans l’indifférence, il s’en prend aux civils et aux représentants de l’État. Ainsi, en décembre de la même année, la secte revendique une série d’attaques dans la ville de Jos au centre du pays et à Maiduguri, qui fait au moins 86 morts. Désormais, la saga de violences est bel et bien enclenchée avec la généralisation d’attaques à la bombe et d’attentats-suicide et avec pour cibles des écoles, des églises, des moquées. Le phénomène « attentat moto » perpétré par des motards cagoulé armés qui tirent sur les fonctionnaires, les militaires, les policiers, les islamistes modérés, mais aussi sur des civils, avant de se faire exploser en kamikaze, le tout est concentré principalement dans le nord-est393. Mais vite leurs actions vont se propager un peu partout dans le pays, avec des attaques symboliques. Les plus spectaculaires sont, entre autres, celle du centre du pays perpétré le 26 août 2011, faisant vingt-trois victimes, qui cible le siège des Nations Unies à Abuja, situé dans un quartier diplomatique qui abrite plusieurs lieux symbole de représentations étrangères, telles que l’ambassade des Etats-Unis et bon nombre d’agences onusiennes opérantes au Nigeria (UNICEF, PNUD et OMS)394. Les épisodes de violence se poursuivent en 2012 et 2013 à travers des attaques toujours plus meurtrières, notamment les attaques kamikazes de Kano, faisant plus de deux cents victimes ou celle des voitures piégées contre des églises chrétiennes à Zaria et Kaduna, qui donnent suite à une vague de violences opposant musulmans et chrétiens et faisant au moins quatre-vingt victimes à la suite desquelles l’insurrection demande à ce que les chrétiens quittent le nord395. Dans un générique de la vidéo du 12 avril 2012, l’insurrection refuse l’appellation BH, le nom sous lequel le mouvement est connu, en réitérant sa mission contre les chrétiens du pays : « On s’engage dans le djihad pour protéger l’Oumma contre les chrétiens qui la déciment. Nous ne sommes pas Boko
, nous
somme
s
des musulmans Ahl-
S
unnah
, vous
devez
392
Zab
ée
BETCHÉ
, Le phénomène Boko
Haram
:
Au
-
delà
du
radical
isme
,
Paris, L'Harmattan, 2016
, p.
41. Tirthankar CHANDA, « Boko Haram en cinq actes: évolution de l'islam radical au Nigeria », Site web de Radio France Internationale RFI/Afrique, en ligne : <http://www.rfi.fr>, publié le 13 mai 2016 (consulté le 26 janvier 2017). 394 Le Monde avec Reuters et AFP, « La secte islamiste Boko Haram revendique l'attentat contre l'ONU au Nigeria », Le Monde édition Afrique, en ligne : <http://www.lemonde.fr>, publié le 26 août 2011 (consulté le 26 aout 2017). 395 Tirthankar CHANDA, op-cit 393
151 | P a g e
Première partie comprend
re la vérité. Nous sommes le cataclysme qui va s’abattre sur les fauteurs de trouble [...]. Voici la kalachnikov pour nettoyer le Nigeria
»396. Face à cette dégradation généralisée de la situation sécuritaire le président de l’époque Goodluk Jonathan déclare l’état d’urgence, comme nous le disons plus haut, dans trois états du nord frappés par les actions du mouvement terroriste : « Je déclare l'état d'urgence dans les États de Borno, Yobe et Adamawa, a annoncé le chef de l'État dans un discours télévisé, en référence à ces trois États du nord-est du pays, théâtre d'une série d'attaques sanglantes menées par Boko Haram. Le président a présenté comme "une déclaration de guerre" les dernières violences revendiquées par le groupe »397. A travers sa détermination et ses actions désastreuses, le mouvement est passé en quelques années du statut de secte millénariste avec des rêves idéalistes à celui de groupe djihadiste international grâce à une stratégie de communication inspirée des organisations terroristes redoutables telles que Daesh, basée sur l’utilisation de la vidéo et incarnée par son leader398, et des prises d’otage des ressortissants étrangers dont celui de la famille française Moulin-Fournier enlevée le 19 février 2013399 : alors qu’ils visitaient un parc naturel dans le nord du Cameroun, les trois adultes et les quatre enfants ont été retenus «dans deux endroits» par le groupe islamiste souligne le père de famille400 avant d’être libérés deux mois plus tard après des négociations entre le gouvernement camerounais et les islamistes contre rançons. S’ensuite celui du prêtre catholique français, Georges Vandenbeusch, curé d’un village de l’extrême nord du Cameroun, libéré six semaines plus tard401. En avril 2014, ce sera le tour de deux prêtres italiens Giampaolo Marta et Gianantonio Allegri et d’une religieuse canadienne enlevé dans leur paroisse de Tchère toujours au Cameroun402. Cela pose la question des frontières sur la propagation des actions de la secte. Ces attaques en continu et la multiplication de nombre de morts poussent les Nations Unies à qualifier, pour la première fois, le mouvement de « terroriste » : ceci intervient d’ailleurs sous la demande de l’État nigérian qui a demandé officiellement au Conseil de 396 Elodie APARD, « Boko Haram, le jihad en vidéo », Politique africaine, n° 138, février 2015, p. 142 Le Monde et Agence FRANCE-PRESSE, « Le président nigérian déclare l'état d'urgence dans trois Etats », Le Monde édition Afrique, en ligne : <http
://www.lemonde.fr>. 398 Élodie APARD, « Boko Haram, le jihad en vidéo », Politique africaine, n° 138, juin 2015, p. 135 399 Léon KOUNGOU, Boko haram: Parti pour durer, l'Harmattan, mars 2016, vol. 264 pages, p. 31. 400 Clément MATHIEU, « Les Moulin-Fournier racontent leur calvaire », Paris Match, en ligne : <http://www.parismatch.com>, publié le 21 avril 2013 (consulté le 22 septembre 2017). 401 Christophe CHAMPIN, « La nouvelle vie du père Vandenbeusch, ex-otage de Boko Haram », Radio France Internationale RFI/Afrique, en ligne : <http://www.rfi.fr>, publié le 10 octobre 2013 (consulté le 22 septembre 2017). 402 Liberation Et AFP, « Deux prêtres italiens et une religieuse canadienne enlevés au Cameroun », Liberation, en ligne : <http://www.liberation.fr>, publié le 05 avril 2014 (consulté le 25 septembre 2017).
397 152 | P a g e
Première partie sécurité de l’ONU d’ajouter le groupe armé islamiste BH à une liste d’organisations considérées comme terroristes. Le pays a déposé cette demande auprès d’un Comité des sanctions contre Al-Qaïda, qui dépend du Conseil. La décision entrera en vigueur jeudi 22 mai 2014 à 15 heures (heure de New York, soit 21 heures en France) si aucun des quinze pays membres du Conseil ne présente d’objections d’ici là403, ce qui fut le cas. Tout se joue en faveur de la secte qui devient une véritable armée organisée dont les effectifs s’élèvent à quelque 300 combattants permanents et ses partisans sont évalués à plus de trois cent mille personnes à travers les dix-neuf États du nord, ainsi que dans les pays frontaliers, notamment le Niger et le Tchad, ce qui en fait une véritable menace régionale404 et ce qui constitue des conditions idoines pour la secte dans son projet de la mise en place d’un califat, à l’instar de l’époque de Cheikh Ousmane dan Fodio, qui est une de leur inspiration ; en témoignent les propos d’Abul Qaqa, mort en 2012, qui était le porte-parole de la secte : « Notre objectif est de revenir au Nigeria d’avant la colonisation, quand la charia était la loi appliquée à tous »405. C’est en 2013 que la configuration de la violence annonce le climat d’une guerre civile à Borno particulièrement. La secte est bien armée, car elle dispose des chars et des armes antiaériennes et ses combattants sont plus ou moins formés. Ces derniers prennent d’assaut pour la première fois des casernes militaires, des commissariats et édifices publics. C’est le début des affrontements face à face avec l’armée nigériane et une première dans le conflit qui les oppose. Malgré l’état d’urgence instauré dans la région, le mouvement arrive à lancer des attaques au quotidien contre des villes et des villages. En 2014, le mouvement constitue tout un empire, et contrôle désormais des territoires dans le nord du pays, il accentue son emprise et élargie sa domination à coup des carnages sur une grande partie de Borno et Adamawa, avant la fin de l’année, la secte contrôle quatre grandes villes, Gwoza, Bama, Baga et Gulani et une trentaine d’agglomérations, ce qui fait 70% de l’État de Borno406, ainsi que le montre la carte suivante.
403 Libération Et AFP, « Le Nigeria veut que l'ONU classe Boko Haram comme organisation terroriste », Libération, en ligne : <http://www.liberation.fr>, publié le 20 mai 2014 (consulté le 26 septembre 2017). 404 Laetitia Tran NGOC, Boko Haram: Fiche Documentaire actualisée, Note d’Analyse du Groupe de recherche et d'information sur la paix et la sécurité (GRIP), Octobre 2012, p. 2, en ligne : <http://www.grip.org/fr/node/605>. 405 Zaché Betché, op-cit, p. 41 406 Tirthankar CHANDA, « Boko Haram en cinq actes: évolution de l'islam radical au Nigeria », Site web de Radio France Internationale RFI/Afrique, en ligne : <http://www.rfi.fr>, é le 13 mai 2016 (consulté le 26 janvier 2017). 153 | P a g
e
Première partie Carte no 5 : Propagation et crimes contre l’humanité de Boko Haram
Source : France Inter avec agences, publiées le jeudi 15 janvier 2015
Solide et bien confiant, Aboubacar Shakau proclame le califat islamique à Gwoza en août 2014 dans une vidéo de 52 minutes et rendue publique à l’instar de l’organisation djihadiste l’État islamique en Irak et en Syrie : « Merci à Allah qui a donné à nos frères la victoire à Gwoza », qui désormais fait "partie du califat islamique », déclare Abubakar Shekau en affirmant ; « Nous n'allons pas quitter la ville. Nous sommes venus pour rester »407. L’affaire dite « bring back our girl », connue sous « les lycéennes de chibok » va rendre publique la gravité de la situation à l’opinion publique internationale quand dans la nuit du 14 407 Le Point et AFP, « Le chef de Boko Haram proclame un "califat islamique" au Nigeria », Le Point International, en ligne : <http://www.lepoint.fr>, publié le 24 aout 2014 (consulté le 25 septembre 2017).
154 | P a g e Première partie
au 15
avril
2014, plus 276 adolescentes du lycée de Chibok au nord-est du Nigeria étaient enlevées par des djihadistes du groupe terroriste BH. « Le 14 avril, il est minuit à Chibok. Le dortoir des filles est bondé, car, demain, c’est jour d’examen. Cinq cent trente élèves, filles et garçons, sont venus de toute la région pour passer les épreuves de fin de secondaire. Soudain, le calme de la nuit est rompu par une violente explosion. Des rafales de kalachnikov claquent. Environ 75 hommes armés, arrivés à bord de pick-up et de camions, investissent la ville et assaillent le collège. Les deux gardiens sont tués, toutes les jeunes filles sont embarquées de force et le feu est mis à l’établissement »408. L’existence de BH est connue de tous dorénavant, les médiats en parle partout dans le monde et les indignations internationales s’interrogent désormais sur qu’est-ce qui se passe dans le nord du Nigeria et comment en est-on arrivé là, comment y remédier. Dans les lignes qui vont suivre nous allons analyser les ripostes des États et ses conséquences.
BLa riposte des États comme source de la dégradation de la situation d’insécurité
Nous abordons ce point par ces quelques lignes de Jakkie Cilliers dans un article sur l’Afrique et le terrorisme. «.... À un certain niveau, il est facile de décrire et de comprendre ce qu’est le terrorisme. C’est le recours illégitime à la violence contre des individus ou des biens afin de contraindre et intimider des États et des sociétés pour des revendications politiques exprimées la plupart du temps en termes sociaux, économiques ou religieux »409. Après un aperçu historique qui nous a permis de comprendre globalement les facteurs divers qui ont conditionné les violences terroristes multiformes perpétrées dans ce géant pétrolier, il est incontestablement important d’apporter une analyse des éléments provoquant l’explosion de cette violence et dans quelles conditions. Au-delà des idées reçues, nous pensons qu’il faut s’interroger sur l’hypothèse selon laquelle l’agent causal de la montée de l’islamisme et de la radicalisation de l’insurrection réside dans le rapport de force et de violence disproportionné qui l’oppose à l’État nigérian et son armée. Car on peut penser que quand un État opte pour une répression intensive ou bien face à son inefficacité dans sa lutte contre le terrorisme, elle provoque la radicalisation de ce dernier (particulièrement le Nigeria, qui, selon Guy NICOLAS, Jacques Duplessy GUILLAUME DE MORANT, « Abubakar Shekau « Les filles dont vous vous préoccupez, nous les avons libérées. Elles sont devenues musulmanes! » », Paris Match (15-21 Mai 2014), p. 48 409 Jakkie CILLIERS, « L'Afrique et le terrorisme », Afrique contemporaine, n° 209, Janvier 2004, p. 81 408
155 | P a g e
Première partie est un pays en crise permanente depuis son indépendance410, réputé pour son pouvoir politique corrompu411 et autoritaire, ou les citoyens sont mal pourvus dans l’exercice de leurs droits fondamentaux) et comme le penses Jakkie Cilliers dans le cas d’Algérie. aDégradation de la situation au nord du Nigeria : action de l’État un l’élément déclencheur
L’irruption des nouveaux acteurs transnationaux (terrorisme et groupes criminels notamment) sur la scène internationale a considérablement modifié le paysage mondial, « L’État n’est plus seul au monde, c’est une évidence », il doit faire de la place à ces acteurs qui ne cesse d’accroitre leur influence de par la mondialisation412. Josepha Laroche disait : « l’État n’est plus le seul acteur à régner sans partage, comme ce fut le cas durant plusieurs siècles »413. Alors que le mur de Berlin est tombé, le monde bipolaire appartient à l’histoire, la question de puissance des États se pose encore, même s’il demeure le centre, l’ordonnateur et l’étalon de l’usage et la force, le symbole de la puissance414. Mais comment un État peut être puissant alors qu’il ne maîtrise pas les menaces et que les violences inédites échappent à tout contrôle et que les dommages et agressions défirent sa puissance? Comment être puissant alors que des acteurs sociaux désorganisés, stériles et dispersés arrivent à défier des grandes puissances qui n’arrivent même pas à les localiser? À partir de là, la puissance devient impuissante comme le pense et le défend Hobbes : plus l’ennemi se détourne de la norme, plus la puissance perd de sa pertinence415. C’est à partir de là que nous posons la question de rapport de force entre l’État nigérian et BH. La puissance militaire nigériane a-t-elle été discréditée ou remise en cause par le caractère violent de la secte jusqu’à ne pas être capable de mettre fin à violence perpétrée par l’insurrection? Alors que l’État, dans sa conception hobbesienne, doit être le garant indéniable
410 Guy NICOLAS, « Le Nigeria : pôle de restructuration géopolitique, ou ligne de front entre chrétiens et musulmans? », in L'Afriques noires l'Afrique blanches, sous la dir. de Y. LACOSTE, Hérodote: revue de géographie et de géopolitique, juillet-septembre 1992, p. 261 411 Daniel Jordan SMITH et Étienne SMITH, « Corruption, culture politique et démocratie au Nigeria Réactions populaires à la croisade anti-corruption du président Obasanjo », Politique africaine, n° 106, Février 2007, p. 2931 412 Samy COHEN, La résistance des Etats : la démocratie face aux défis de la mondialisation, Paris, Seuil, septembre 2003, p. 9. 413 Josépha LAROCHE, « De l'interétatique au transnational (Chaos International) », Paris, L'Harmattan, décembre 2018, p. 11 414 Pierre BUHLER, La puissance au XXIème Siècle: Les nouvelles définitions du monde, Paris, CNRS éditions, 2014, p. 538. 415 Bertrand BADIE, L'impuissance de la puissance: essai sur les nouvelles relations internationales, Paris, Fayard, 2004, p. 10. 156 | P a g e
Première partie et absolu de la sécurité de la collectivité 416. Les interrogations vont se succéder pour nous amener au postulat wébérien selon lequel la violence physique légitime de l’État alimente les confrontations et qu’il va de soi que seul un État fort peut arrêter la puissance de son agresseur417. Mais il ne faut pas perdre de vu les normes internationales reconnues sur l’interdiction de la torture qui datent de plus de trois cents ans, qu’on peut d’ailleurs retrouver dans diverses déclarations des droits qui proscrivaient les traitements inhumains et cruels, tel dans l’article 5 de la déclaration universelle des droits de l’homme de 1948, l’article 3 de la convention de Genève de 1949 concernant le traitement cruels, inhumains ou dégradants adoptée en 1984 ; de même, par des traités régionaux, telle que la charte africaine des droits de l’homme et des peuples418. Le non-respect de ceci engage la responsabilité d’un acteur dans une guerre sur les conséquences de la crise comme celle de l’État du Nigeria contre BH. Donc partant de tout ce qui précède, s’il est évident et n’est guère une surprise que la responsabilité de l’armée nigériane dans la dégradation de la situation sécuritaire dans le nord du Nigéria soit engagée, là n’est pas la question, car l’objectif est d’apporter une analyse des facteurs qui ont entrainé la dégradation de la situation. Bien sûr, comme elle le fait régulièrement, l’armée va nier sa mise en cause pour son usage excessif de la force. Et va naturellement justifier ses agissements419. Mais le degré de la riposte militaire violente de l’État avec son opération peluche mise en place spécialement pour combattre BH a anticipé la radicalisation de la secte, qui aurai pu être réglé pacifiquement à l’instar des négociations voulues et engagées entre la secte et les autorités d’Abuja par l’intermédiaire de Sheik Tahirou Bauchi entre 2013 et 2014420. Comme le soulignent John Horgan et Kurt Braddock dans leur livre Terrorism studies, dans ce passage, « the last category of situational factors involves the concept of precipitating event that immediately precedes outbreaks of terrorism. Although it is generally thought that precipitants are the most unpredictable of cause, there...... Government use of unexpected and unusual force in response to protest or reforms attempts... »421.
416 Zaki LAIDI, Le grande perturbation, Paris, Flammarion, 2004, p. 223. Ibidem, p. 127 418 Jean-François CARON, La guerre juste: les enjeux éthiques de la guerre au XXIème siècle, Laval, Presse de l'Université de Laval, 2015, p. 95. 419 Sam BOTON, « Nigéria : l’armée rejette les accusations d’Amnesty International », La nouvelle tribune, en ligne : <https://lanouvelletribune.info>, publié le 15 juin 2017 (consulté le 26 septembre 2017). 420 Sarfilu GUMEL, « Dahiru Bauci Yayi Magana Kan Boko Haram », Voice of America VOA/Hausa, en ligne : <http://www.voahausa.com>, publié le 02 décembre 2014 (consuté le 26 septembre 2017). 421 John HORGAN et Kurt BRADDOCK, Terrorism studies, Londres, Routledge, 2011, p. 103. 417 157 | P a g e
Première partie
Selon ces auteurs, les actions violentes disproportionnées des services de sécurité peuvent provoquer des réactions de représailles de la part du groupe terroriste. De ce fait, quand on observe les différentes étapes qui ont marqué l’évolution de la secte islamiste, malgré sa politique et volonté initiale d’instaurer un califat islamique dans les États du nord du pays, nous arriverons à l’idée selon laquelle la secte ne disposait pas des moyens et raisons légitimant une action violente lui permettant de faire face à la structure de l’État. La secte se cache derrière des revendications socio-économiques pour une harmonie et justice sociale : il a fallu une riposte violente de l’État pour que la secte pense et s’organise pour se protéger dans un premier temps, mais l’escalade de la violence va s’accentuer davantage quand l’armée va décider de les anéantir définitivement. Les combattants justifient leurs actions : pour eux ils sont en position de légitime défense quand ils parlent des correspondances de certains militaires telles que les propos des militaires lors des évènements du cortège funèbre « nous allons les tuer tous », ces mots accordent aux combattants de la secte une préparation psychologique pour affronter l’armée. S’ensuit l’assassinat de leur leader Muhammad Yusuf, nous l’avons vu, et cela a suscité l’indignation d’abord des partisans de la secte, mais au-delà, une part entière de la population était en émoi, poussant le président de l’époque Umaru Yar'Adua à demander l’ouverture d’une enquête, mais aussi à l’international, telle que l’ONG Human Rights Watch qui a appelé à l’ouverture immédiate d’une enquête sur ce qui s’apparente une « exécution extrajudiciaire et illégale »422. Cette indignation internationale renforce le sentiment d’injustice que la secte dénonce et va légitimer sa radicalisation en affirmant que la force est son seul moyen de riposte parce que le dialogue les conduit directement en prison. De toute évidence, quand on observe la configuration des évènements qui se sont succédé, ce phénomène est clair et n’est pas difficile à comprendre, particulièrement quand on considère que les centres de détention sont des lieux évidents de vulnérabilité où le besoin de se mêler aux autres est fort prégnant, à l’instar de l’analyse de l’institut d’étude de sécurité ISS.423 En effet, quand les États ont des ressources limitées, en l’occurrence le Nigéria, ou quand la corruption touche l’appareil de l’État dans son moindre recoin, il lui sera difficile, voire impossible de construire des prisons capables de séparer les extrémistes de candidats potentiels, ou de détecter des formes de radicalisation. BH 422
Christophe AYAD, « Nigeria: Polémique sur les circonstances du décès du chef «taliban»; Yusuf, mort à discrédit », Libération, en ligne : <http://www.liberation.fr>, publié le 04 août 2009 (consulté le 26 septembre 2017). 423 Cassim Cachalia RAEESAH, Salifu UYO et Ndung’u IRENE, « Les dynamiques de la radicalisation des jeunes en Afrique: Revue des faits », Institut d'études de sécurité ISS, n° 296, Aout 2016, p. 6-7. 158 | P a g e
Première partie a bénéficié de cette incapacité et l’a exploité à son avantage pour recruter des jeunes vulnérables. L’évolution des stratégies de radicalisation et de recrutement a constitué des défis supplémentaires d’importance pour les États, qui essaient de neutraliser la portée mondiale des extrémistes, ce qui n’était pas la préoccupation de l’État nigérian ni de ses pays voisins. La propagation régionale rapide et surtout désastreuse de la secte en est une preuve. Machiavel développait dans son livre Le prince, que la raison d’être de l’État est de se maintenir et de se développer, en maintenant la préservation de la sureté de sa population ; dans cette soif de sécurité, il use divers moyens, notamment par manipulation, trahison ou même agression 424; mais à quel prix et pour quelle conséquence, ici pour le Nigéria? De toute évidence, des facteurs aussi politiques que sécuritaires nous démontrent que la répression par l’État fédéral ainsi que les atteintes aux droits de l’homme ont attisé le mécontentement et la colère dramatique du mouvement Yusufiste à son égard. Ce fait a conduit aussi à la détresse de la jeunesse, déjà désœuvrée, qui perd foi en l’État, avant de penser l’utilisation de moyens moins pacifiques pour se faire entendre par le pouvoir public aussi local que fédéral ; en conséquence, nous constatons la présence de divers groupes qui s’adonnent au banditisme, bien avant le phénomène BH, comme nous l’avons vu dans le chapitre précédant, parfois sous couvert de ce dernier après son apparition. Dès lors que la répression est opérée par l’État, les victimes n’ont aucune possibilité de protection ou de recours de la part de ses institutions425 peu importe l’État, parce que les abus de la part des gouvernants creusent le fossé entre la politique et le social et installe le discours du « nous contre eux » et conduit les jeunes à rechercher leur identité et une cohésion ailleurs, mais surtout la réponse à leur problème, du moins là où ils se sentent considérés et respectés, c’est incontestablement ce qui a été profitable à BH à sa création, mais surtout après la mort humiliante de son leader Muhamad Yusuf en 2009. Primo Levi écrivait « La violence n’engendre que la violence..., dans un mouvement pendulaire qui grandit avec le temps au lieu de s’amortir »426. Dans le même sens, très tôt l’armée nigériane amorce le jeu de la tuerie, œil pour œil et dent pour dent, avec les partisans du mouvement : à la moindre supposition ou apparence physique d’un simple citoyen, l’armée passe à l’exécution ; l’installation de la culture de la mort entre les deux côtés crée une psychose
424 Jean-Serge MASSAMBA-MAKOUMBOU, Politique de la mémoire et résolution des conflits, Paris, L'Harmattan, 2012, p. 52-53. 425 Ibidem 426 Cité par Chris HEDGES, la guerre est une force qui nous octroie du sens, traduit par N. HUSTON, Arles, Actes SUD question de société, 2016, p. 16. 159 | P a g e Pre
mière partie dans le nord et ses zones frontalières, cela aura affectivement et physiquement brisé le tissu de l’harmonie sociale. Ce climat détruit le schéma hobbesien dans le pays, selon lequel, « les citoyens hypothèquent certains de leur droit en se soumettant à l’État, ce dernier, en contrepartie leur garantit la sécurité »427, mais l’armée, dans sa fermeté de lutte sans réserve contre les terroristes, produit l’effet inverse. En 1986, le ministre français de l’Intérieur Charles Pasqua affirmait « Il faut terroriser les terroristes »428. Le Nigeria aurait fait le choix de faire de même avec les terroristes de l’organisation djihadiste BH, qui installe la terreur sur son territoire. Mais la riposte par la terreur ne résout pas la crise, c’est plutôt une aberration, comme le soulignent les lignes de Chris Hedges : « La terreur est chorégraphiée. La terreur doit être vue et ressentie pour être efficace. La terreur exige des images macabres. La terreur doit instiller une peur paralysante. La terreur requiert la souffrance des familles, des cadavres mutilés, les supplications angoissées d’otages et de prisonniers impuissants. La terreur est un message qui fait sans cesse l’aller-retour dans le dialogue vicié de la guerre. La terreur déclenche un véritable tsunami de rage, d’horreur, de honte, de douleur, de dégoût, de pitié, de frustration et d’impuissance. Elle consume civils et combattants. Elle fait de la violence la plus haute des vertus, justifiée au nom de nobles idéaux. Elle déclenche un carnaval de mort et plonge la société dans une folie sanglante »429. Les stratégies maladroites des gouvernements, qui consistent le plus souvent à réprimer violemment les mouvements terroristes, n’ont souvent pas été assez efficaces pour les fragiliser ou réduire la menace qu’ils représentent en réduisant considérablement leur capacité d’action Au contraire, il provoque l’effet inverse : elle favorise l’augmentation des menaces potentielles que représentent les mouvements en élargissant le nombre de jeunes tentés de s’engager dans des activités extrémistes430. La multiplication des attaques sur l’État et ses institutions au Nigeria donne une expertise de notre idée de départ selon laquelle que le mouvement est avant tout un problème d’origine interne, causé par des défaillances multiples qu’on a évoquées plus haut, même si selon Léon 427 Mohamed BENNOUNA, « La protection diplomatique, un droit de l'Etat? », in Paix, Développement, Démocratie, sous la dir. de B. BOUTROS-GHALI, Bruxelles, Bruylant, 1998, p. 245 428 Maxime TANDONNET, « Charles Pasqua, celui qui voulait «terroriser les terroristes» », Le Figaro, en ligne : <http://www.lefigaro.fr>, publié le 30 juin 2015 (consulté le 25 avril 2017).
429 Chris HEDGES, La
guerre
est
une force qui nous octroie du sens
, tradu
it par N. HUSTON, Arles
, Actes SUD, 2016, p. 18. 430
Ibidem 160 | P a g e
Première partie Koungou, "Boko Haram est un problème nigéro-nigérian dont le Cameroun, le Tchad ou le Niger ne sont que des victimes collatérales". Mais pour des raisons qui lui sont propres, le mouvement fait incursion par des actions violentes sur la frontière avec le Niger. Par ailleurs, il faut noter qu’à partir de 2016 le mouvement s’est scindé en deux parties, quand Aboubacar Chekaou (qui avait juré allégeance au « calife » al Baghdadi de l’État islamique en début 2015431) aurait été écarté par Daech432. L'organisation djihadiste aurait ainsi préféré nommer à la tête de sa filiale nigériane Abou Moussab al Barnawi, proche des combattants libyens et moins imprévisibles, qui est désormais présenté par le magazine de Daech comme le nouveau chef de sa branche nigériane433. Il prend le contrôle d’un certain nombre de groupes sur le lac Tchad, une partie de ses rives et le long de la Komadougou, donc frontalier avec le Niger alors que l’aile menée par Shekau, le chef historique du mouvement, s’est concentrée sur la forêt de Sambisa et les monts Mandara, zone frontalière avec le Cameroun434. Cependant il n’existe pas une démarcation claire entre les deux factions en termes de territoire, mais les populations fonds la différence entre les deux en fonctions du degré la violence lors des attaques. Selon quoi la nouvelle faction est moins violente et plus civilisée nous confie un militaire dans la région qui a voulu garder l’anonymat. L’attaque des positions militaire de Bosso et Nguaguam en juin 2016 pourrait en être une illustration quand les combattants djihadistes affirment épargner les populations : « A Bosso, Boko Haram ne s'est pas attaqué directement aux populations même s'il a fait des victimes collatérales. Le 16 juin, des éléments du groupe ont tué sept gendarmes à Nguaguam, tout en assurant à la population qu'ils ne s'en prendraient pas aux civils. Certains y voient un changement de modus operandi, contrastant avec les massa
passés »435. bLes répercutions frontalières de Boko Haram
Dès 2013, avec la tendance expansionniste de BH, quand ses membres procèdent à des incursions au Cameroun, ils affichent publiquement l’internationalisation de l’insurrection. Dès 431 Le FIGARO, « Boko Haram prête allégeance à l'Etat islamique », Le Figaro, en ligne : <http://www.lefigaro.fr>, publié le 07 mars 2015 (consulté le 12 juin 2017). 432 Daech ou daesh en anglais est l’acronyme (sigle formé d'initiales) de “Dawlat islamiya fi 'iraq wa sham” que l’on traduirait de l’arabe au français par L’Etat islamique en Irak et au Levant. C’est une organisation militaire, politique et terroriste d'idéologie salafiste existe depuis 2006. 433
L
'Humanité
Avec AFP, « Nigéria. La
secte
Boko Haram ouvertement divisée », L'Humanité, en ligne : <https://www.humanite.fr>, publié
le
8 aout 2016 (consulté le 12 juin 2017). 434 Ibidem 435 La Croix et AFP, « Niger: la difficile lutte contre Boko Haram », La Croix, en ligne : <https://www.lacroix.com>, publié le 01 juillet 2016 (consulté le 13 juin 2017).
161 | P a g e
Première partie lors, elle devient une préoccupation de plus en plus pressante pour les voisins du Nigeria, qui craignaient l’extension des troubles sur leurs territoires, avec le constat flagrant qui démontre l’incapacité de l’État nigérian à endiguer le problème. Bien que bien prévenu, le Niger s’inquiète désormais. En effet, l’interrogation au tour de la sécurisation de la frontière entre les deux pays a été posée pour la première fois par les autorités nigériennes en janvier 2011, quand elles ont intercepté une dizaine de personnes soupçonnées d’être des associées de la secte BH, qu’ils considèrent jusqu’à là une affaire interne du Nigeria. Ces personnes avaient en leur possession des grenades et des explosifs artisanaux avec comme plan des attaques à la bombe dans plusieurs endroits publics de la ville Diffa à l’Est du Niger. Ainsi, en février 2012, dans la région de Diffa, la police nigérienne a démantelé un réseau de quinze personnes qui préparaient une opération contre la garnison militaire locale 436. Une situation qui va conduire les autorités nigériennes à fermer la frontière entre les deux pays, ce qui entraîne des conséquences dramatiques pour la région de Diffa et désormais la méfiance est là et la question de sécurité des frontières est au cœur des préoccupations des habitants de la frontière. Il est à noter que les villages frontaliers touchés par la crise n’étaient pas préparés à une situation de crise provoquant le déplacement massif de populations ; mais ils ont été confrontés à la situation et y ont fait face à travers différentes manières, en fonction de l’ampleur des problèmes rencontrés (dilemme, entre fuir pour sauver sa vie et rester aider ses proches et les réfugiés). Pour sa première incursion d’envergure sur le territoire nigérien, le bilan a été de cent-neuf combattants de BH, quatre militaires et un civil ont été tués437. Un constat clair se dessine selon lequel l’insurrection, dès le début, a commencé par un échec d’un point de vue des pertes en vies humaines, mais une réussite d’un point de vue psychologique, car depuis ce jour, la psychose n’a cessé de faire des ravages sur les quotidiens de la population, provoquant ainsi d’énormes conséquences. En effet, la montée en puissance, d’un cran, des activités terroristes avec une menace réelle, a pesé sur le psychique des riverains qui ont compris que le terrorisme était désormais chez eux, contre eux et c’est à prendre avec sérieux. C’est l’une des premières
436 Service Canadien du renseignement de SÉCURITÉ, Stabilité politique et sécurité en Afrique du Nord et de l’Ouest: Points saillants de la conférence, Regards sur le monde : avis d’experts, Conférence organisée par le Service canadien du renseignement de sécurité dans le cadre de son programme de liaison-recherche, Publié en avril 2014, p. 100-101. 437 VOA Afrique avec AFP, « Première attaque de Boko Haram au Niger à Bosso et Diffa », VOA Afrique, en ligne : <https://www.voaafrique.com>, publié le 06 février 2015 (consulté le 14 juin 2017).
162 | P a g e
Première partie fois que la population s’interroge sur la responsabilité des autorités à les protéger et assurer la sécurité de la frontière, mais aussi de garantir la stabilité de leur économie transfrontalière de survie, qu’elle soit officielle ou la grande économie grise transfrontalière qui existe. L’inquiétude a été importante, pesant sur la conscience de la population locale, parce que cette dernière est consciente que ses enfants sont partis combattre au côté de Shekaou et qu’ils reviendront certainement combattre leur propre terre. Cette situation va exhorter les autorités nigériennes à lancer les signaux d’alarme sur la menace préoccupante de BH qui ne cessent de grandir sur sa frontière avec le Nigeria. En octobre 2015, c’est une trentaine des villes et villages frontalières qui sont attaqué au quotidien comme nous le retrace la carte ci-dessous.
Carte no 6 : Attaques de Boko Haram sur la frontière nigérienne situation d’octobre 2015 Source : Bureau de la coordination des affaires humanitaires (Diffa/Niger), (www.unocha.org)
163 | P a g e
Première partie Carte no 7 : Niger/ Diffa Victimes civiles liées aux attaques de Boko Haram (06 février 2015 au 22 août 2017) Source : Bureau de la coordination des affaires humanitaires (Diffa/Niger) ; UNDSS, FDS, crée le 24 août 2017, (www.unocha.org)
Depuis 2015, la crise a connu une intensité variable d’une année à l’autre, mais en 2018, les attaques terroristes ont connu une augmentation importante, particulièrement dans les localités bordant les berges de la Komadougou et les localités proches des îles du Lac Tchad, avec bien d’autre types d’incidents et de crimes, notamment des enlèvements, extorsions et menaces. D’un point de vue global, même s’il fallait s’attendre à une incursion de l’insurrection sur les pays frontaliers, il est important de comprendre que les principales raisons sont d’ordre stratégique pour la secte. Il est indéniable qu’elle a voulu étendre sa sphère d’influence au-delà de son fief originel traditionnel. Autrement dit, et selon Yann Saint-Pierre, président et spécialiste du contre-terrorisme au sein du groupe MOSECON (Modern Security Consulting Group), cette incursion est une tactique pour l’insurrection, lui permettant de "disperser la
164 | P a g e Première partie
coalition militaire" mise en place par les pays du bassin du lac Tchad en attaquant ses membres les plus vulnérables438. Ainsi, essayer de diviser la coalition n’est qu'une des nombreuses raisons pour lesquelles BH fait incursion au Niger, mais aussi au Tchad. Ceci vise, selon l’expert, d’abord, à cibler les côtés faibles de la coalition militaire régionale et c’est justement le Niger qui apparaît comme le maillon le plus faible de l’équipe439. À comprendre cette thèse, c’est dire que BH a voulu créer des nouveaux fronts qui vont aboutir à une multiplication des zones d’action de la coalition et donc inscrire la guerre dans la durée. Ci-dessous, une carte qui mentionne les incursions transfrontalières de l’insurrection sur les autres pays frontaliers avec le quartier général de l’insurrection.
Carte no8 : La pression transfrontalière croissante de Boko Haram en 2015
Source : Christian Seignobos, « Boko Haram et le lac Tchad. Extension ou sanctuarisation 440?» 438 Fethi DJEBALI, « Lac Tchad: la stratégie de "dispersion" de Boko Haram », Agence Anadolu AA, en ligne : <https://aa.com.tr>, publi
é
le
16 février 2015 (consulté le 15
juin 2017
). 439 Ibidem 440 Christian SEIGNOBOS, « Boko Haram et le lac Tchad. Extension ou sanctuarisation? », Afrique contemporaine, n° 255, Mars 2015, p. 95 165 | P a g e
Première partie Cette incursion laisse croire que la volonté territoriale de l’insurrection va fortement au-delà de la frontière territoriale et prend surtout en considération les frontières ethniques entre le Nigeria et Niger, mais aussi Cameroun. Ceci est facile pour elle
à
cause
de la porosité des
frontières
comme
nous
le di
sons
précédemment. Ici, notre intérêt tourne
autour de la frontière entre le Niger et le Nigeria,
dont
nous pensons avoir les manettes. Une frontière qui au-delà du terrorisme connait d’autres sources d’insécurité. Section 2 : De la rébellion aux conflits ethniques en passant par les groupes d’autodéfense : Le manga, une culture d’instabilité? Comme nous l’avons déjà évoqué, aux côtés du terrorisme qui constitue la principale source d’insécurité aujourd’hui sur la frontière entre les deux pays, et dans toute la région d’une manière générale, d’autres facteurs de tensions ont existé et perdurent encore d’une manière ou d’une autre
. À part la rébellion du Manga des années 1990, c’est tant d’autres sources d’instabilité et des menaces qui fragilisent la région telles que des groupes de bandits armés, basés dans le lit du lac Tchad et dans le Massif du Tibesti au Tchad, pratiquant aussi des vols de bétails et des attaques sur des axes routiers441. Ces facteurs perturbent les allers et retours sur la frontière avec le Nigeria particulièrement. À cela s’ajoute l’augmentation des flux migratoires, le tous conforté par la défaillance de l’État qui n’arrive pas à assurer la sûreté publique et à contrôler les frontières. Pendant longtemps, ces diverses sources d’insécurité cette frontière, engendrent une économie criminelle impliquant des groupes ethniques, des familles, des individus ou même parfois des autorités. Globalement, la partie nigéro-nigériane ne fait pas l’exception de la réalité du bassin du lac Tchad que l’universitaire Issa Saibou a décrit dans son article dédié à la partie camerounaise du Lac intitulé, l’embuscade sur les routes des abords sud du lac Tchad. Selon l’auteur, « des bandits de grand chemin opèrent sur les routes des abords sud du lac Tchad. Ce banditisme rural tire ses sources aussi bien dans des impératifs de survie que dans les travers de la modernité, qui a érigé l’accumulation spontanée du capital en norme et mis des armes sophistiquées entre les mains des malfrats. Ces véritables seigneurs de la route tirent parti de l’absence de banques près des marchés frontaliers, de la porosité des frontières interétatiques, de l’insuffisance des forces de sécurité. Plus qu’un simple problème de maintien de l’ordre, 441 Haut-commissariat À la Restauration de la Paix HCRP, Stratégie de developpement et de sécurité dans les zones sahelo-saharaiennes du Niger, la Stratégie de Développement et
de
Sécurité dans les zones Sah
éloSa
hariennes du Niger (SDS-Sahel Niger), Cabinet du premier minitre du Niger, 2012, p. 29.
166 | P a g e
Première partie cette criminalité transfrontalière est
l’une des facettes majeures de l’insécurité dans le bassin du lac Tchad
»442. Il est important de revenir rapidement sur ces agissements criminels parce qu’elles ont contribués, dans certaines mesures, à l’extension du conflit qui oppose le mouvement BH aux États du bassin du Lac Tchad, Niger et Nigeria notamment.
| 25,388
|
9749f1921ffd9c4eb44eff603f0735d6_10
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,007
|
Hongrie
|
None
|
French
|
Spoken
| 7,331
| 13,842
|
LES PENSIONS DANS LES PAYS DE L’OCDE : PANORAMA DES POLITIQUES PUBLIQUES – ÉDITION 2007 – ISBN 978-92-64-03216-3 – © OCDE 2007
141
III. FRANCE
Résultats de la modélisation de pensions : France
Complémentaire
Selon revenu
Minimum
Niveau brut relatif des pensions
Ciblée
Taux brut de remplacement
2.5
1.25
2.0
1.00
1.5
0.75
1.0
0.50
0.5
0.25
0
0
0
0.25
0.50 0.75 1.00 1.25 1.50 1.75 2.00
Gain individuel, proportion du gain moyen
0
0.25
Net
0.50 0.75 1.00 1.25 1.50 1.75 2.00
Gain individuel, proportion du gain moyen
Brut
Niveau relatif des pensions, brut et net
Taux de remplacement, brut et net
2.5
1.25
2.0
1.00
1.5
0.75
1.0
0.50
0.5
0.25
0
0
0
0.25
0.50 0.75 1.00 1.25 1.50 1.75 2.00
Gain individuel, proportion du gain moyen
Hommes
Femmes (si différent)
Salaire
médian
Niveau brut relatif des pensions
0
0.25
0.50 0.75 1.00 1.25 1.50 1.75 2.00
Gain individuel, proportion du gain moyen
Salaire individuel en multiple du salaire moyen dans l’ensemble de l’économie
0.5
0.75
1
1.5
2
43.5
31.9
38.4
51.2
70.3
89.4
54.6
42.1
50.2
63.1
83.8
103.1
51.2
63.8
51.2
51.2
46.9
44.7
62.8
78.4
64.9
63.1
58.0
55.4
Patrimoine-retraite brut
9.2
11.5
9.2
9.2
8.4
8.0
(multiple du salaire individuel brut)
10.6
13.2
10.6
10.6
9.7
9.3
Patrimoine-retraite net
8.2
10.8
8.6
8.1
7.2
6.6
(multiple du salaire individuel net)
9.5
12.4
9.9
9.3
8.3
7.6
(% du salaire moyen brut)
Niveau net relatif des pensions
(% du salaire moyen net)
Taux brut de remplacement
(% du salaire individuel brut)
Taux net de remplacement
(% du salaire individuel net)
142
LES PENSIONS DANS LES PAYS DE L’OCDE : PANORAMA DES POLITIQUES PUBLIQUES – ÉDITION 2007 – ISBN 978-92-64-03216-3 – © OCDE 2007
III. Conditions d’éligibilité
L’âge normal de la retraite est de 65 ans pour les hommes et 60 ans pour les femmes;
il est aligné sur 65 ans pour toutes les personnes entrées sur le marché du travail à partir
de 1993. Pour percevoir la retraite à cet âge, il faut au minimum 4 500 jours de cotisation
(soit l’équivalent de 15 ans). Les travailleurs qui ont à leur actif 11 100 jours ouvrables de
cotisation (37 ans) peuvent percevoir une retraite à taux plein quel que soit l’âge de départ
à la retraite. Les personnes exerçant des métiers pénibles ou dangereux et les femmes
ayant des enfants à charge ou des enfants handicapés bénéficient de bonifications.
La pension sociale minimum requiert 15 années de cotisations.
Calcul des prestations
Régime assis sur les salaires : composante principale
Pour les personnes entrées sur le marché du travail à partir de 1993, la pension est de
2 % du salaire par année de cotisation, jusqu’à 35 années. Le taux de remplacement
maximum est donc de 70 % pour les personnes qui partent à l’âge normal ou plus tôt.
Cependant, pour les personnes qui continuent à travailler après 65 ans jusqu’à 67 ans, le
taux de constitution de droits est porté à 3 % par an; après 67 ans, ce taux est nul (taux de
remplacement maximum 76 %).
La pension maximum (voir plus loin) ne s’applique pas non plus au travail effectué
après 65 ans.
La mesure de la rémunération est la moyenne des cinq dernières années précédant le
départ à la retraite. La revalorisation des rémunérations des années antérieures suit les
hausses annuelles définies par la politique nationale des revenus.
La pension maximum, qui est égale à quatre fois le PNB par habitant de 1991, est
indexée sur l’évolution des retraites des fonctionnaires. Pour 2004, ce plafond a été de
2 346.76 EUR par mois. Les calculs indiquent que, pour un travailleur ayant une carrière
complète, cela équivaut à plafonner les rémunérations ouvrant droit à pension à 275 % du
salaire moyen.
L’ajustement des retraites en cours est discrétionnaire. Durant les cinq dernières
années, les augmentations des retraites ont été progressives, avec une seule exception, où
toutes les retraites ont augmenté dans la même proportion (voir ci-dessous). Sur la
période 1999-2001, les retraites modestes ont augmenté sensiblement plus que l’inflation;
en 2002, au contraire, elles ont été à la traîne. Étant donné le manque de cohérence des
modalités récentes d’ajustement, les calculs du patrimoine retraite sont effectués sur la
base d’une indexation sur les prix.
Toutes les pensions comportent 14 mensualités.
144
LES PENSIONS DANS LES PAYS DE L’OCDE : PANORAMA DES POLITIQUES PUBLIQUES – ÉDITION 2007 – ISBN 978-92-64-03216-3 – © OCDE 2007
III.
Année
1999
Inflation
Augmentations
2000
2001
2002
2003
2004
2.6 %
3.2 %
3.4 %
3.6 %
3%
2.9 %
3.9 % (< EUR 733)
4.0 %
5.5 % (< EUR 352)
3.5 % (< EUR 400)
4 % (< EUR 500)
5 % (< EUR 500)
2.75 % (< EUR 587)
1.5 % (< EUR 620)
2 % (< EUR 1 000)
3 % (< EUR 1 000)
1.4 % (< EUR 880) 0.75 % (< EUR 910)
0 % (> EUR 1 000)
0 % (> EUR 1 000)
3.4 % (> EUR 733)
0 % (> EUR 880)
GRÈCE
0 % (> EUR 910)
Régime assis sur les salaires : composante complémentaire
La pension complémentaire à taux plein est égale à 20 % de la rémunération prise en
compte dans la composante principale du régime lié à la rémunération pour les travailleurs
ayant 35 ans de cotisation. Pour des durées de cotisation plus courtes, la pension est
réduite au prorata, ce qui implique un taux linéaire d’acquisition de droits de 0.57 %. Le
taux de la pension est majoré de 5e par année de cotisation (300 jours) au-delà des 35 ans.
Pension minimum
La pension minimum est fixée à 70 % du salaire minimum pour un salarié marié
travaillant à plein-temps. Pour 2004, elle a été de 419.48 EUR par mois, soit 34 % du salaire
moyen. Ce chiffre est ajusté tous les ans dans le cadre de la politique des revenus.
Régime sous conditions de ressources : prestations de solidarité sociale
Ce régime, mis en place en 1996, est un régime non contributif applicable sous
condition de ressources aux retraités à faible revenu relevant de la plupart des régimes
(autre que le régime de retraite des agriculteurs).
Pour être admis à bénéficier de ce régime, dénommé EKAS, il faut que le revenu net
total (de toutes provenances) soit inférieur à 6 562.02 EUR (en 2004). Le revenu imposable
total ne doit pas dépasser 7 655.71 EUR, et le revenu imposable total du ménage ne doit pas
dépasser 11 913.22 EUR.
Niveau de revenu, limite inférieure
Prestation mensuelle
0
EUR 5 976.14
EUR 6 210.52
EUR 6 366.73
EUR 6 562.02
EUR 141.2
EUR 105.9
EUR 70.6
EUR 35.3
0
Retraite anticipée
Une retraite anticipée est possible sous réserve de réduction de la prestation, comme
indiqué dans le tableau ci-dessous. L’ajustement est de 1/267e par mois d’anticipation, soit
4.5 % par an.
Nombre d’années
Âge d’éligibilité
Conditions
15
65
Pas de réduction
15
60
Réduction (1/267e)
35
55
Réduction (1/267e)
37
Aucun
Pas de réduction
LES PENSIONS DANS LES PAYS DE L’OCDE : PANORAMA DES POLITIQUES PUBLIQUES – ÉDITION 2007 – ISBN 978-92-64-03216-3 – © OCDE 2007
145
III. GRÈCE
Retraite tardive
Le départ à la retraite après l’âge normal de 65 ans est possible. Le taux d’acquisition
de droits est porté à 3 % jusqu’à 67 ans dans le régime principal, après 67 ans il n’y a plus
acquisition de droits (taux maximum de remplacement, 76 %). Après 65 ans, la pension
maximum ne s’applique pas. La composante complémentaire continue d’ouvrir des droits.
Le cumul d’une retraite et d’un travail est autorisé dans la limite d’un salaire de 700 EUR.
Résultats de la modélisation des pensions : Grèce
Supplément
Selon revenu
Niveau brut relatif des pensions
Taux brut de remplacement
2.5
1.25
2.0
1.00
1.5
0.75
1.0
0.50
0.5
0.25
0
0
0
0.25
0.50 0.75 1.00 1.25 1.50 1.75 2.00
Gain individuel, proportion du gain moyen
0
0.25
Net
0.50 0.75 1.00 1.25 1.50 1.75 2.00
Gain individuel, proportion du gain moyen
Brut
Niveau relatif des pensions, brut et net
Taux de remplacement, brut et net
2.5
1.25
2.0
1.00
1.5
0.75
1.0
0.50
0.5
0.25
0
0
0
146
0.25
0.50 0.75 1.00 1.25 1.50 1.75 2.00
Gain individuel, proportion du gain moyen
0
0.25
0.50 0.75 1.00 1.25 1.50 1.75 2.00
Gain individuel, proportion du gain moyen
LES PENSIONS DANS LES PAYS DE L’OCDE : PANORAMA DES POLITIQUES PUBLIQUES – ÉDITION 2007 – ISBN 978-92-64-03216-3 – © OCDE 2007
III.
Hommes
Femmes (si différent)
Salaire
médian
Salaire individuel en multiple du salaire moyen dans l’ensemble de l’économie
0.5
0.75
1
1.5
2
81.4
47.9
71.8
95.7
143.6
191.4
97.4
60.4
87.9
110.1
151.3
187.6
95.7
95.7
95.7
95.7
95.7
95.7
111.1
113.6
111.7
110.1
110.3
107.0
Patrimoine-retraite brut
14.3
14.3
14.3
14.3
14.3
14.3
(multiple du salaire individuel brut)
16.6
16.6
16.6
16.6
16.6
16.6
Patrimoine-retraite net
13.6
14.3
13.9
13.0
11.9
11.1
(multiple du salaire individuel net)
15.7
16.5
16.0
15.1
13.8
12.8
Niveau brut relatif des pensions
GRÈCE
(% du salaire moyen brut)
Niveau net relatif des pensions
(% du salaire moyen net)
Taux brut de remplacement
(% du salaire individuel brut)
Taux net de remplacement
(% du salaire individuel net)
LES PENSIONS DANS LES PAYS DE L’OCDE : PANORAMA DES POLITIQUES PUBLIQUES – ÉDITION 2007 – ISBN 978-92-64-03216-3 – © OCDE 2007
147
III. HONGRIE
Hongrie
L
e nouveau système conjugue un régime public de retraite lié à la rémunération et des
régimes par capitalisation obligatoires à cotisation définie. Il s’applique aux nouveaux
arrivants sur le marché du travail et aux personnes ayant au maximum 42 ans au moment
de la réforme. Les travailleurs plus âgés ont eu le choix entre ce régime mixte et le simple
régime public de retraite par répartition. La modélisation suppose que les travailleurs sont
couverts par le régime mixte.
Conditions d’éligibilité
L’âge d’éligibilité à une pension est aligné progressivement sur 62 ans pour les
hommes comme pour les femmes (contre 60 et 55 ans respectivement). Il est passé à
62 ans pour les hommes en 2000 et passera à 62 ans pour les femmes à la fin de 2009. En
outre, 20 années de service sont exigées tant pour la pension liée à la rémunération que
pour la pension minimum. Pour les personnes partant à la retraite avant 2009, 15 années
de service sont exigées pour percevoir une pension partielle.
Le système réformé a été mis en place en juin 1998. Les personnes qui sont passées
volontairement au nouveau régime mixte avaient la faculté jusqu’à la fin de l’année 2002
de revenir au régime de retraite par répartition. Par ailleurs, l’obligation pour les nouveaux
arrivants sur le marché du travail d’adhérer à un fonds de pension privé a été suspendue
en 2002.
Calcul des prestations
Régime assis sur les salaires
Pour les personnes couvertes par le régime mixte, le taux d’acquisition de droits est de
1.22 % du salaire par année de service (sous réserve du plafond de cotisation indiqué
ci-dessous). Pour les personnes relevant uniquement du régime de retraite par répartition,
ce taux est de 1.65 %.
La base de rémunération, qui est actuellement la rémunération de toutes les années
depuis 1988, se rapproche progressivement de la carrière complète. Les rémunérations des
années antérieures, à l’exclusion des deux dernières années précédant le départ à la
retraite, sont revalorisées en fonction du salaire moyen dans l’ensemble de l’économie. Les
dernières années ne sont pas revalorisées.
Depuis 1992, la rémunération ouvrant droit à pension est plafonnée. En 2004, le
plafond était de 14 500 HUF par jour, soit 4.2 fois le salaire moyen selon la définition de
l’OCDE (1 260 948 HUF). Depuis 1992, ce plafond a fait l’objet de relèvements par rapport
aux revenus.
Les pensions en cours sont indexées depuis 2001 à 50 % sur les salaires et à 50 % sur
les prix.
Actuellement, deux semaines de pension supplémentaires sont versées chaque
année, et ce supplément sera porté à un mois en 2006.
Pension minimum
Il existe une pension minimum qui en 2004 s’établissait à 23 200 HUF par mois
(environ 16 % de salaire moyen brut et presque 25 % du salaire moyen net). Elle est indexée
148
LES PENSIONS DANS LES PAYS DE L’OCDE : PANORAMA DES POLITIQUES PUBLIQUES – ÉDITION 2007 – ISBN 978-92-64-03216-3 – © OCDE 2007
III.
HONGRIE
de la même façon que la pension liée à la rémunération, c’est-à-dire pour moitié sur les
prix et pour moitié sur le salaire moyen. Elle sera supprimée à compter de 2009.
Régime à cotisation définie
À partir de 2004, environ 8 % du salaire brut ouvrant droit à pension sont réorientés
vers le régime par capitalisation pour les personnes relevant du régime de retraite mixte
public-privé – soit par choix délibéré, soit par obligation). Le capital accumulé doit être
converti en rente lors du départ à la retraite. Cette rente doit faire l’objet de la même
indexation mixte que celle du régime public de retraite. Le calcul des taux de rente doit se
baser sur des tables de mortalité unisexe.
Retraite anticipée
Le départ en retraite anticipé est actuellement possible pour les hommes à 60 ans et
pour les femmes à 57 ans. Lorsque les âges de la retraite s’aligneront à 62 ans pour les
deux, le départ en retraite anticipé sera possible à partir de 59 ans pour les hommes
comme pour les femmes. À compter de 2013, cet âge sera porté à 60 ans.
À l’heure actuelle, une retraite anticipée à taux plein nécessite 38 ans d’activité; ce
chiffre passera à 40 ans en 2009 et à 41 ans en 2013. Une retraite réduite peut être versée
pour au moins 33 ans d’activité, chiffre qui passera à 37 ans en 2009 et à 38 ans en 2013. Les
réductions sont indiquées dans le tableau ci-dessous. La réduction maximum atteint 30 %
pour cinq années manquantes.
Années manquantes
1
2
3
4
5
Réduction par année d’anticipation
1.2 %
2.4 %
3.6 %
4.8 %
6.0 %
Retraite tardive
Il est possible de retarder la liquidation de la retraite assise sur les salaires. Les droits
à pension correspondants sont de 0.5 % par mois de report.
Scénario d’avant réforme
Avant la réforme, le système était basé uniquement sur un régime par répartition assis
sur les salaires. L’acquisition des droits n’était pas linéaire en fonction du nombre d’années de
cotisation. Le taux de remplacement était de 43 % pour 15 années d’activité, 2 %
supplémentaires par an jusqu’à 25 ans, 1 % les onze années suivantes et ensuite 1.5 % par an.
La pension était indexée totalement sur les salaires; aujourd’hui elle est indexée en
partie sur les salaires, en partie sur les prix (voir plus haut). Il existe une pension minimum
– décrite plus haut. Comme on l’a indiqué, la réforme a également relevé l’âge de la retraite
pour les hommes et pour les femmes. La plupart des éléments de la réforme ont fait l’objet
en 1997 d’une loi qui est entrée en application en 1998.
La retraite est actuellement calculée sur la base du salaire net mais, selon la réforme
de 1997, à partir de 2013 l’assiette de calcul sera le salaire brut.
LES PENSIONS DANS LES PAYS DE L’OCDE : PANORAMA DES POLITIQUES PUBLIQUES – ÉDITION 2007 – ISBN 978-92-64-03216-3 – © OCDE 2007
149
III. HONGRIE
Résultats de la modélisation des pensions : Hongrie
CD
Selon revenu
Niveau brut relatif des pensions
Taux brut de remplacement
2.5
1.25
2.0
1.00
1.5
0.75
1.0
0.50
0.5
0.25
0
0
0
0.25
0.50 0.75 1.00 1.25 1.50 1.75 2.00
Gain individuel, proportion du gain moyen
0
0.25
Net
0.50 0.75 1.00 1.25 1.50 1.75 2.00
Gain individuel, proportion du gain moyen
Brut
Niveau relatif des pensions, brut et net
Taux de remplacement, brut et net
2.5
1.25
2.0
1.00
1.5
0.75
1.0
0.50
0.5
0.25
0
0
0
0.25
0.50 0.75 1.00 1.25 1.50 1.75 2.00
Gain individuel, proportion du gain moyen
Hommes
Femmes (si différent)
Salaire
médian
Niveau brut relatif des pensions
0
0.25
0.50 0.75 1.00 1.25 1.50 1.75 2.00
Gain individuel, proportion du gain moyen
Salaire individuel en multiple du salaire moyen dans l’ensemble de l’économie
0.5
0.75
1
1.5
2
65.3
38.4
57.6
76.9
115.3
153.7
89.2
58.4
80.5
102.2
131.0
167.3
76.9
76.9
76.9
76.9
76.9
76.9
96.5
94.7
95.1
102.2
98.5
98.5
Patrimoine-retraite brut
12.4
12.4
12.4
12.4
12.4
12.4
(multiple du salaire individuel brut)
15.4
15.4
15.4
15.4
15.4
15.4
Patrimoine-retraite net
11.1
12.4
11.4
10.8
9.3
8.9
(multiple du salaire individuel net)
13.7
15.3
14.1
13.4
11.4
11.0
(% du salaire moyen brut)
Niveau net relatif des pensions
(% du salaire moyen net)
Taux brut de remplacement
(% du salaire individuel brut)
Taux net de remplacement
(% du salaire individuel net)
150
LES PENSIONS DANS LES PAYS DE L’OCDE : PANORAMA DES POLITIQUES PUBLIQUES – ÉDITION 2007 – ISBN 978-92-64-03216-3 – © OCDE 2007
III.
HONGRIE
Résultats de la modélisation des pensions : Hongrie, scénario d’avant réforme
Hommes
Salaire individuel en multiple du salaire moyen dans l’ensemble de l’économie
Salaire médian
Femmes (si différent)
0.5
0.75
1
1.5
2
101.1
Gross relative pension level
52.6
34.4
47.9
57.7
78.4
(% du salaire moyen brut)
48.0
31.4
43.7
52.7
71.6
92.2
Niveau net relatif des pensions
80.3
52.5
73.1
88.1
119.6
154.2
(% du salaire moyen net)
73.3
47.9
66.7
80.4
109.2
140.7
Taux brut de remplacement
61.9
68.9
63.9
57.7
52.3
50.5
(% du salaire individuel brut)
56.5
62.8
58.3
52.7
47.7
46.1
Taux net de remplacement
86.9
85.2
86.4
88.1
90.0
90.7
(% du salaire individuel net)
79.3
77.8
78.8
80.4
82.1
82.8
Patrimoine-retraite brut
12.0
13.3
12.4
11.2
10.1
9.8
(multiple du salaire individuel brut)
16.2
18.0
16.7
15.1
13.7
13.2
Patrimoine-retraite net
12.0
13.3
12.4
11.2
10.1
9.8
(multiple du salaire individuel net)
16.2
18.0
16.7
15.1
13.7
13.2
LES PENSIONS DANS LES PAYS DE L’OCDE : PANORAMA DES POLITIQUES PUBLIQUES – ÉDITION 2007 – ISBN 978-92-64-03216-3 – © OCDE 2007
151
III. IRLANDE
Irlande
L
e régime public de retraite est un régime de base qui verse une pension à taux uniforme à
toute personne remplissant les conditions requises de cotisation. Par ailleurs, une pension
sous condition de ressources offre un filet de sécurité aux personnes âgées à faibles revenus.
La moitié environ des salariés sont couverts par des régimes professionnels volontaires.
Conditions d’éligibilité
La pension de vieillesse contributive est payable à partir de 66 ans, tandis que la
pension de retraite est versée à partir de 65 ans. Pour avoir droit aux deux prestations à
taux plein, il faut avoir à son actif une moyenne de 48 semaines de cotisation ou assimilées
par an sur toute la durée de la vie active. Le montant de la pension est réduit au prorata en
cas de durée de cotisation incomplète. Toutefois, la pension de vieillesse contributive
requiert au minimum une moyenne de 10 semaines de cotisation par an et la pension de
retraite de 24 semaines par an. Par ailleurs, la durée totale minimum de cotisation est de
260 semaines, soit l’équivalent de cinq années de couverture complète.
La pension soumise à condition de ressources est payable à partir de 66 ans.
Calcul des prestations
Régime de base
Le montant de la pension de vieillesse contributive, comme celui de la pension de
retraite, est de 167.30 EUR par semaine (sur 53 semaines par an) pour 2004, soit environ
30 % du salaire moyen (selon la définition de l’OCDE). À cela s’ajoute un montant de
111.50 EUR pour un adulte à charge d’âge actif et de 129.20 EUR pour une personne à charge
de 66 ans et plus. Un plan à long terme récent fixe la valeur de la pension de base par
rapport au salaire : l’objectif national est de 34 % du salaire industriel moyen de l’année
précédente.
Les retraités bénéficient de nombreuses prestations en nature. Le gouvernement en
estime la valeur à 870 EUR par an, hors prestations d’assurance maladie. (On notera que la
modélisation prend en compte uniquement les prestations en espèces et non les
prestations en nature.)
Régime ciblé
Le montant maximum de la prestation soumise à condition de ressources est de
154 EUR par semaine pour une personne seule, auquel s’ajoutent pour 2004 101.80 EUR
pour un adulte à charge. La pension d’une personne seule représente 27 % du salaire
moyen. Au-delà d’une franchise d’un faible montant, la prestation est dégressive à
proportion du revenu (100 %). Un critère de patrimoine s’applique également : tout capital
supérieur à 20 315 EUR est converti en revenu par application d’une formule standard.
Le montant du revenu minimum garanti par le régime soumis à condition de
ressources suit à peu près la revalorisation du régime de base (en fonction des salaires).
Retraite anticipée
La pension ne peut être liquidée avant l’âge légal.
152
LES PENSIONS DANS LES PAYS DE L’OCDE : PANORAMA DES POLITIQUES PUBLIQUES – ÉDITION 2007 – ISBN 978-92-64-03216-3 – © OCDE 2007
III.
IRLANDE
Retraite tardive
Le cumul d’une pension et d’un travail est autorisé dans le cadre de la pension de
retraite pour autant que le salaire d’activité soit inférieur à 38 EUR par semaine. En
revanche, la pension de vieillesse contributive n’est pas soumise à un critère de revenu
d’activité, et sa liquidation ne peut être reportée.
Résultats de la modélisation des pensions : Irlande
Base
Niveau brut relatif des pensions
Taux brut de remplacement
2.5
1.25
2.0
1.00
1.5
0.75
1.0
0.50
0.5
0.25
0
0
0
0.25
0.50 0.75 1.00 1.25 1.50 1.75 2.00
Gain individuel, proportion du gain moyen
0
0.25
Net
0.50 0.75 1.00 1.25 1.50 1.75 2.00
Gain individuel, proportion du gain moyen
Brut
Niveau relatif des pensions, brut et net
Taux de remplacement, brut et net
2.5
1.25
2.0
1.00
1.5
0.75
1.0
0.50
0.5
0.25
0
0
0
0.25
0.50 0.75 1.00 1.25 1.50 1.75 2.00
Gain individuel, proportion du gain moyen
0
0.25
0.50 0.75 1.00 1.25 1.50 1.75 2.00
Gain individuel, proportion du gain moyen
LES PENSIONS DANS LES PAYS DE L’OCDE : PANORAMA DES POLITIQUES PUBLIQUES – ÉDITION 2007 – ISBN 978-92-64-03216-3 – © OCDE 2007
153
III. IRLANDE
Hommes
Femmes (si différent)
Salaire
médian
Niveau brut relatif des pensions
Salaire individuel en multiple du salaire moyen dans l’ensemble de l’économie
0.5
0.75
1
1.5
2
32.5
32.5
32.5
32.5
32.5
32.5
38.5
38.5
38.5
38.5
38.5
38.5
38.2
65.0
43.3
32.5
21.7
16.2
44.4
65.8
49.3
38.5
29.3
23.5
Patrimoine-retraite brut
6.8
11.5
7.7
5.8
3.8
2.9
(multiple du salaire individuel brut)
8.1
13.7
9.2
6.9
4.6
3.4
Patrimoine-retraite net
6.8
11.5
7.7
5.8
3.8
2.9
(multiple du salaire individuel net)
8.1
13.7
9.2
6.9
4.6
3.4
(% du salaire moyen brut)
Niveau net relatif des pensions
(% du salaire moyen net)
Taux brut de remplacement
(% du salaire individuel brut)
Taux net de remplacement
(% du salaire individuel net)
154
LES PENSIONS DANS LES PAYS DE L’OCDE : PANORAMA DES POLITIQUES PUBLIQUES – ÉDITION 2007 – ISBN 978-92-64-03216-3 – © OCDE 2007
III.
ISLANDE
Islande
L
e régime public de retraite est composé de trois éléments : un régime de base et deux
régimes soumis à condition de ressources. On trouve également des régimes professionnels
obligatoires avec une formule hybride (quoiqu’essentiellement à prestation définie).
Conditions d’éligibilité
L’âge normal de départ à la retraite est de 67 ans. Quarante années de résidence sont
nécessaires pour percevoir une retraite de base à taux plein. Pour des durées de résidence
plus courtes, la pension est réduite au prorata : la durée minimum exigée est de trois ans.
L’âge de départ en retraite est également de 67 ans pour les bénéficiaires de régimes
professionnels du secteur privé.
Calcul des prestations
Régime de base
Le montant de la retraite de base à taux plein est de 21 249 ISK par mois, soit environ
9 % du salaire moyen. Cette prestation est soumise à condition de ressources : elle est
dégressive à partir du moment où les revenus (autres que celui de la pension
complémentaire) excèdent 1 716 020 ISK, soit 62 % du salaire moyen et s’annule lorsqu’ils
atteignent 2 565 980 ISK. Cette condition de ressources s’applique uniquement aux
revenus autres que les pensions, à savoir au revenu du travail ou de l’aide sociale, ainsi qu’à
50 % du revenu du capital.
Régimes ciblés
Un deuxième élément est le complément retraite. Le montant maximum de cette
prestation est de 41 655 ISK par mois pour une personne seule, soit environ 18 % du salaire
moyen. Elle est dégressive à partir du moment où le revenu annuel excède 550 656 ISK par
an (environ 20 % du salaire moyen). Toutefois, la pension de base n’a aucune incidence sur
le montant du complément retraite. Le taux de dégressivité appliqué à ce complément en
fonction du revenu est de 45 %.
Il existe enfin un deuxième complément retraite, dont le montant est plafonné à
20 540 ISK par mois, soit un peu moins de 9 % du salaire moyen. Ce complément est
dégressif au taux de deux tiers en fonction de tous les autres revenus, et s’annule lorsque
ceux-ci atteignent 439 680 ISK
Les niveaux des prestations sont ajustés en fonction de l’évolution des salaires du
secteur public (qui est ici supposée identique à celle de l’hypothèse standard de croissance
des salaires dans l’ensemble de l’économie).
Régimes professionnels obligatoires
Les régimes d’entreprise sont obligatoires. La loi leur impose un taux de
remplacement de 56 % pour 40 années de cotisation, ce qui donne un taux d’acquisition de
droits de 1.4 % par année d’activité. La couverture est obligatoire de 16 à 70 ans. Dans ce
calcul, la base de rémunération est la moyenne des salaires sur la durée de la vie active par
année de cotisation. Le salaire ouvrant droit à pension n’est pas plafonné. Les salaires
antérieurs sont actualisés en fonction de la hausse des prix, plus un taux d’intérêt de 3.5 %.
LES PENSIONS DANS LES PAYS DE L’OCDE : PANORAMA DES POLITIQUES PUBLIQUES – ÉDITION 2007 – ISBN 978-92-64-03216-3 – © OCDE 2007
155
III. ISLANDE
De par la loi, les retraites professionnelles en cours doivent être indexées sur la hausse
des prix à la consommation.
Dans la pratique, de nombreux régimes versent davantage que le minimum légal
indiqué ci-dessus, et introduisent habituellement dans le système un élément mixte de
cotisation définie/prestation définie. La cotisation minimum aux régimes professionnels
est de 10 % du salaire : 4 % payés par le salarié et 6 % par l’employeur. Les cotisations audelà du niveau nécessaire pour financer les prestations légales décrites ci-dessus peuvent
être utilisées pour accroître les droits des régimes à prestation définie ou être transférées
vers des comptes individuels, assurant ainsi une pension à cotisation définie. Toutefois, la
modélisation ne porte que sur la composante obligatoire et non sur ses prestations
extralégales, qui ne sont pas garanties.
Retraite anticipée
Dans le régime professionnel obligatoire, les règles relatives à la retraite anticipée
varient selon les fonds en fonction de leur composition. Dans le secteur privé, l’âge normal
de départ à la retraite est de 67 ans et un départ anticipé est possible à 62 ans. D’une façon
générale, les retraites sont réduites de 7 % par année d’anticipation.
Ni le régime de base, ni les régimes ciblés n’autorisent une retraite anticipée.
Retraite tardive
Dans le régime professionnel obligatoire, les travailleurs peuvent ajourner leur départ à
la retraite jusqu’à 70 ans, avec augmentation de la pension de 9 % par année. Les travailleurs
qui retardent leur départ à la retraite continuent à cotiser et à acquérir des droits
supplémentaires. Dans certains cas, la durée totale de cotisation est plafonnée à 32 ans.
Ni le régime de base ni les régimes ciblés n’autorisent le report du départ à la retraite. La
pension de base est soumise à un critère de revenu d’activité (voir plus haut), tandis que les
régimes ciblés sont soumis à un critère de revenu global comprenant le revenu d’activité.
156
LES PENSIONS DANS LES PAYS DE L’OCDE : PANORAMA DES POLITIQUES PUBLIQUES – ÉDITION 2007 – ISBN 978-92-64-03216-3 – © OCDE 2007
III.
ISLANDE
Résultats de la modélisation des pensions : Islande
Complémentaire
Base
Ciblée
Niveau brut relatif des pensions
Taux brut de remplacement
2.5
1.25
2.0
1.00
1.5
0.75
1.0
0.50
0.5
0.25
0
0
0
0.25
0.50 0.75 1.00 1.25 1.50 1.75 2.00
Gain individuel, proportion du gain moyen
0
0.25
Net
0.50 0.75 1.00 1.25 1.50 1.75 2.00
Gain individuel, proportion du gain moyen
Brut
Niveau relatif des pensions, brut et net
Taux de remplacement, brut et net
2.5
1.25
2.0
1.00
1.5
0.75
1.0
0.50
0.5
0.25
0
0
0
0.25
0.50 0.75 1.00 1.25 1.50 1.75 2.00
Gain individuel, proportion du gain moyen
Hommes
Femmes (si différent)
Salaire
médian
Niveau brut relatif des pensions
0
0.25
0.50 0.75 1.00 1.25 1.50 1.75 2.00
Gain individuel, proportion du gain moyen
Salaire individuel en multiple du salaire moyen dans l’ensemble de l’économie
0.5
0.75
1
1.5
2
68.1
55.0
64.4
77.5
111.6
145.7
76.0
64.6
72.8
84.2
113.8
143.5
80.1
109.9
85.8
77.5
74.4
72.9
86.9
110.9
92.0
84.2
80.3
79.7
Patrimoine-retraite brut
12.3
17.7
13.3
11.8
11.3
11.0
(multiple du salaire individuel brut)
13.8
20.0
15.0
13.3
12.6
12.3
Patrimoine-retraite net
9.7
14.7
10.6
9.1
8.1
7.6
(multiple du salaire individuel net)
10.9
.6
12.0
10.2
9.1
8.6
(% du salaire moyen brut)
Niveau net relatif des pensions
(% du salaire moyen net)
Taux brut de remplacement
(% du salaire individuel brut)
Taux net de remplacement
(% du salaire individuel net)
LES PENSIONS DANS LES PAYS DE L’OCDE : PANORAMA DES POLITIQUES PUBLIQUES – ÉDITION 2007 – ISBN 978-92-64-03216-3 – © OCDE 2007
157
III. ITALIE
Italie
L
e nouveau régime de retraite italien repose sur un système de comptes notionnels. Le
taux de rendement des cotisations est lié à la croissance du PIB. Au moment de la retraite,
le capital notionnel accumulé est converti en rente en tenant compte de l’espérance de vie
moyenne à ce moment-là. Il s’applique intégralement aux personnes entrées sur le marché
du travail à partir de 1996.
Conditions d’éligibilité
Suite à la réforme de 2004, l’âge normal de départ à la retraite sera à compter de 2008
de 60 ans pour les femmes et 65 ans pour les hommes. Cependant, une retraite anticipée
restera possible à diverses conditions de cotisation (voir plus loin). La modélisation de base
suppose le départ des hommes à 65 ans et des femmes à 60 ans*.
Calcul des prestations
Régime assis sur les salaires
Dans ce régime, les comptes notionnels des salariés sont crédités de 33 % du salaire,
ce qui est légèrement supérieur aux taux de cotisation effectifs payés par les salariés et les
employeurs. Les cotisations sont ensuite revalorisées en fonction d’une moyenne mobile
sur cinq ans de la croissance du PIB, jusqu’à l’année de départ à la retraite. L’hypothèse de
base de la modélisation pour l’ensemble des pays est une progression des salaires réels de
2 % par an. Étant donné la baisse attendue de la population active en Italie, une croissance
réelle du PIB de 1.6 % par an est une hypothèse cohérente.
Au moment du départ en retraite, le capital notionnel est multiplié par un « coefficient
de conversion » qui varie en fonction de l’âge auquel les personnes font valoir leurs droits
à pension. Les valeurs sont révisées tous les dix ans sur la base des taux de mortalité aux
différents âges. Les partenaires sociaux et le Parlement sont consultés, mais c’est au
gouvernement qu’incombe la responsabilité finale. Les calculs supposent un taux d’intérêt
réel de 1.5 %. Les illustrations actuarielles pour la période 2036-2045 (qui englobe 2040,
année retenue pour les projections de base) fondées sur les prévisions démographiques
ISTAT 2001 sont les suivantes :
Âge de départ à la retraite
Coefficient de conversion (%)
57
58
59
60
61
62
63
64
65+
4.014
4.113
4.217
4.328
4.446
4.572
4.705
4.847
4.999
Pour les salariés, la rémunération minimum pour le calcul des cotisations est de
164.87 EUR par semaine (39 % du salaire moyen). Le salaire pris en compte pour les
prestations est plafonné à 82 401 EUR par an, soit un peu plus de 370 % du salaire moyen.
* L’Italie a émis de sérieuses réserves sur l’adéquation des données utilisées dans ce rapport et, par
conséquent, sur la comparabilité des résultats. En particulier, les hypothèses de référence sur les
âges d’entrée sur le marché du travail et la durée de la carrière (de 20 et 45 ans respectivement) sont
différents de ceux qui ont fait l’objet d’un accord dans l’exercice similaire réalisé au niveau de
l’Union européenne, et diffèrent des normes actuelles sur le marché du travail italien. L’Italie
considère que les interprétations qui se fondent sur ces données peuvent induire en erreur.
158
LES PENSIONS DANS LES PAYS DE L’OCDE : PANORAMA DES POLITIQUES PUBLIQUES – ÉDITION 2007 – ISBN 978-92-64-03216-3 – © OCDE 2007
III.
ITALIE
L’indexation des pensions en cours est complexe, dans la mesure où les pensions
modestes bénéficient d’un traitement plus généreux que les pensions élevées. Jusqu’à trois
fois la pension minimum, les pensions en cours sont totalement indexées sur les prix. Ce
seuil est de 1 206 EUR par mois pour 2003 (chiffre utilisé pour l’indexation des pensions
en 2004) et de 1 236 EUR pour 2004 (pour l’indexation de 2005), soit environ les deux tiers
du salaire moyen sur l’ensemble de l’économie. Entre trois et cinq fois la pension
minimum, les pensions en cours sont revalorisées de 90 % de la hausse des prix. Au-delà,
l’indexation tombe à 75 % de la hausse des prix. On notera que pour les pensions
importantes l’indexation s’applique de façon distincte à chaque tranche.
Aide sociale
La pension minimum (voir plus loin) est supprimée pour les personnes qui relèvent
uniquement du nouveau régime, c’est-à-dire qui sont arrivées sur le marché du travail
après 1996. Cependant, les retraités dont le revenu est inférieur au niveau de l’aide sociale
peuvent prétendre à 65 ans à une prestation soumise à conditions de ressources. En 2004,
la prestation d’aide sociale (assegno sociale), suppléments compris, s’élève à 4 952 EUR. Pour
les personnes de plus de 70 ans, ce montant passe à 6 967 EUR. Ces chiffres équivalent
respectivement à 22 et 31 % du salaire moyen.
Retraite anticipée
La réforme de 2004 a fixé l’âge normal de la retraite dans le nouveau régime à 65 ans
pour les hommes et 60 ans pour les femmes à partir de 2008. C’est le même âge que dans
l’ancien système. À partir de 2008, les hommes ayant cotisé au moins 35 ans pourront,
partir à 60 ans. L’âge minimum de la retraite passera ensuite à 61 ans en 2010 et 62 ans
en 2014. Pour moins de 40 ans de cotisations, la retraite anticipée est affectée d’un délai de
carence supplémentaire de 9 mois (en moyenne, à compter de 2008), ce qui se traduit par
un âge effectif de départ à la retraite anticipé supérieur de 9 mois aux âges indiqués. Les
femmes continueront de pouvoir liquider leurs droits à la retraite à 57 ans jusqu’en 2015. À
partir de 2016, cet âge sera porté à 60 ans.
Il restera toutefois possible de partir à n’importe quel âge avec 40 ans de cotisations.
Enfin, pour prendre une retraite anticipée, il faut que la pension soit égale à moins 1.2 fois
la pension d’aide sociale.
Retraite tardive
Les femmes auront le droit de continuer à travailler jusqu’à l’âge normal de la retraite
pour les hommes. La retraite à 65 ans n’est pas obligatoire, mais les employeurs ont le droit
de se séparer des salariés qui atteignent cet âge. Dans le système de comptes notionnels, il
n’est pas possible de cumuler un salaire et une pension avant 63 ans. Au-delà, c’est
possible, mais il y a une pénalité : le taux d’imposition du salaire est de 50 % du revenu
excédant la pension minimum, jusqu’à ce que l’impôt total atteigne le montant total de la
pension.
Il est possible de reporter la liquidation des droits à pension après 65 ans; cependant
le coefficient de conversion (voir plus haut) reste le même et la prestation n’augmente que
par accumulation des nouvelles cotisations et leur capitalisation (virtuelle) sur une ou
plusieurs années supplémentaires.
LES PENSIONS DANS LES PAYS DE L’OCDE : PANORAMA DES POLITIQUES PUBLIQUES – ÉDITION 2007 – ISBN 978-92-64-03216-3 – © OCDE 2007
159
III. ITALIE
Scénario d’avant réforme
Les personnes arrivées sur le marché du travail depuis 1996 relèvent exclusivement du
nouveau régime. Les personnes ayant plus de 18 ans de cotisations au moment de la
réforme relèvent exclusivement de l’ancien système. Les cohortes intermédiaires relèvent
de l’ancien système pour les droits acquis jusqu’à la fin de 1995 et du nouveau système
pour les droits ultérieurs.
L’ancien régime à prestation définie, versait une proportion variable du salaire selon
l’année de cotisation. Pour les années postérieures à 1993, un barème était fixé pour les
différentes tranches de salaire. Celui de 2004 est le suivant :
Tranche (limite inférieure)
0
Taux d’acquisition de droits
2.0 %
EUR 37 884
EUR 50 386
EUR 62 887
EUR 71 980
1.6 %
1.35 %
1.10 %
0.9 %
Dans ce système, les salaires ouvrant droit à pension n’étaient pas plafonnés.
L’âge normal de la retraite a été progressivement relevé à partir de 1992 (60 ans pour
les hommes, 55 ans pour les femmes) pour atteindre 65 ans pour les hommes et 60 ans
pour les femmes en 2000. Vingt années de cotisations sont requises pour percevoir une
pension (15 années avant 1992).
Cela dit, il existait aussi une pension d’ancienneté (pensione di anzianità) qui permettait
de percevoir la pension plus tôt. La réforme de 1992 a progressivement durci ces
conditions. Ainsi, le départ à la retraite peut se faire à n’importe quel âge pour 37 ans de
cotisations en 2001/03, 38 ans en 2004/05, 39 ans en 2006/07 et 40 ans à partir de 2008. Avec
35 années de cotisation, en 2001, la pension pouvait être liquidée à 56 ans et en 2002 à
57 ans. De nouveaux relèvements sont envisagés comme indiqué plus loin.
La pension minimum est fixée à 50 EUR par mois au-dessus de la prestation d’aide
sociale (décrite plus haut) pour les 60-64 ans et 110 EUR pour les 65-69 ans. À partir de
70 ans, la pension minimum est égale à la prestation d’aide sociale.
Dans l’ancien régime, il était possible après 58 ans de cumuler une pension et un
travail pour autant qu’on ait cotisé 37 ans.
160
LES PENSIONS DANS LES PAYS DE L’OCDE : PANORAMA DES POLITIQUES PUBLIQUES – ÉDITION 2007 – ISBN 978-92-64-03216-3 – © OCDE 2007
III.
ITALIE
Résultats de la modélisation des pensions : Italie
Selon revenu
Niveau brut relatif des pensions
Taux brut de remplacement
2.5
1.25
2.0
1.00
1.5
0.75
1.0
0.50
0.5
0.25
0
0
0
0.25
0.50 0.75 1.00 1.25 1.50 1.75 2.00
Gain individuel, proportion du gain moyen
0
0.25
Net
0.50 0.75 1.00 1.25 1.50 1.75 2.00
Gain individuel, proportion du gain moyen
Brut
Niveau relatif des pensions, brut et net
Taux de remplacement, brut et net
2.5
1.25
2.0
1.00
1.5
0.75
1.0
0.50
0.5
0.25
0
0
0
0.25
0.50 0.75 1.00 1.25 1.50 1.75 2.00
Gain individuel, proportion du gain moyen
Hommes
Femmes (si différent)
Salaire
médian
Niveau brut relatif des pensions
(% du salaire moyen brut)
0
0.25
0.50 0.75 1.00 1.25 1.50 1.75 2.00
Gain individuel, proportion du gain moyen
Salaire individuel en multiple du salaire moyen dans l’ensemble de l’économie
0.5
0.75
1
1.5
2
57.7
34.0
51.0
67.9
101.9
135.9
44.9
26.4
39.6
52.8
79.2
105.6
Niveau net relatif des pensions
68.1
46.7
61.6
77.9
108.8
139.6
(% du salaire moyen net)
55.8
36.3
50.7
63.4
88.7
111.9
Taux brut de remplacement
67.9
67.9
67.9
67.9
67.9
67.9
(% du salaire individuel brut)
52.8
52.8
52.8
52.8
52.8
52.8
Taux net de remplacement
77.9
81.8
78.2
77.9
78.1
79.3
(% du salaire individuel net)
63.8
63.6
64.4
63.4
63.7
63.5
Patrimoine-retraite brut
10.0
10.0
10.0
10.0
10.0
9.9
(multiple du salaire individuel brut)
10.7
10.7
10.7
10.7
10.7
10.6
Patrimoine-retraite net
8.6
10.0
8.8
8.4
7.7
7.4
(multiple du salaire individuel net)
9.7
10.7
10.0
9.4
8.7
8.2
LES PENSIONS DANS LES PAYS DE L’OCDE : PANORAMA DES POLITIQUES PUBLIQUES – ÉDITION 2007 – ISBN 978-92-64-03216-3 – © OCDE 2007
161
III. Conditions d’éligibilité
La pension vieillesse de base est versée à partir de 65 ans pour un minimum de
25 années de cotisation. La pension à taux plein nécessite 40 années de cotisation; pour
des durées plus courtes ou plus longues, la prestation est ajustée au prorata.
La pension liée à la rémunération est versée en sus de la pension de base, avec un
minimum d’un mois de cotisation, sous réserve que le bénéficiaire ait droit à la pension de
base. L’âge de la retraite est progressivement relevé de 60 à 65 ans (entre 2001 et 2013 pour
les hommes et entre 2006 et 2018 pour les femmes) pour la composante à taux uniforme et
de 60 à 65 ans pour les hommes en 2025 et pour les femmes en 2030 pour la composante
liée à la rémunération. La composante assise sur les salaires du régime de retraite des
salariés est ajustée au prorata en cas de durée plus courte ou plus longue de cotisation.
Calcul des prestations
Régime de base
Pour 2004, la pension de base à taux plein était de 794 500 JPY par an, soit 16 % du
salaire moyen. La valeur de la pension de base est indexée sur les prix.
Régime assis sur les salaires
Le régime de retraite des salariés comporte une composante à taux uniforme et une autre
beaucoup plus importante assise sur les salaires. Le taux d’acquisition des droits était, jusqu’à
l’exercice 2002, de 0.75 % du salaire sans les primes. Avec l’élargissement de l’assiette de calcul
de la retraite, le taux d’acquisition a été ramené à 0.5481 % du salaire (primes incluses).
Les rémunérations passées sont revalorisées en fonction de l’évolution du salaire net
moyen dans l’ensemble de l’économie.
Le salaire soumis à cotisations est plafonné à 620 000 JPY par mois, soit 150 % du
salaire moyen.
La prestation à taux uniforme dépend de l’année de naissance. En 2004, elle
s’échelonnait entre 1 676 JPY et 3 143 JPY par mois de cotisation. Elle n’est versée qu’aux
retraités de 62 à 64 ans et sera progressivement supprimée d’ici 2013.
Les retraites des salariés en cours sont indexées sur les prix.
Externalisation
Les employeurs qui occupent au moins 1 000 salariés peuvent « externaliser » une
partie des retraites assises sur les salaires (dite « part de substitution ») s’ils couvrent euxmêmes leurs salariés ; environ 15 % des salariés participent à ce type de régime.
L’externalisation nécessite que les employeurs offrent au moins 150 % (110 % avant 2005)
de la prestation qu’aurait assuré le régime public assis sur les salaires. Le calcul de la
retraite requise pour l’externalisation est basé sur le salaire nominal moyen sur la durée de
la vie active. L’indexation des retraites en cours et la revalorisation des salaires antérieurs
sont financées par l’État.
LES PENSIONS DANS LES PAYS DE L’OCDE : PANORAMA DES POLITIQUES PUBLIQUES – ÉDITION 2007 – ISBN 978-92-64-03216-3 – © OCDE 2007
163
III. JAPON
Le taux de cotisation des régimes externalisés est déterminé par l’État en fonction de
la composition par âge de l’effectif salarié considéré ainsi que de l’hypothèse actuarielle.
Jusqu’en 1996, en revanche, le taux était uniforme pour tous les régimes. Depuis 2005, il
s’échelonne entre 2.4 et 5 % de la rémunération totale.
Depuis 2001, l’État encourage les régimes de pension à cotisation définie et les régimes
professionnels à prestation définie, ce qui a conduit à la dissolution de plusieurs fonds de
pension de salariés.
| 9,126
|
30b6d6121f851d73ecaa14df809cd21e_2
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,022
|
Exportations d’oléagineux et de produits oléagineux par région
|
None
|
French
|
Spoken
| 7,308
| 12,099
|
Partie 3 : Chapitres sur les produits. Ces chapitres décrivent les récentes évolutions des marchés et
présentent les projections à moyen terme des prix, de la production, de la consommation et des échanges
des produits examinés dans les Perspectives. Chaque chapitre s’achève par un examen des principaux
problèmes et incertitudes susceptibles d’avoir une incidence sur les marchés dans les dix prochaines
années. Cette partie comporte neuf chapitres portant respectivement sur les céréales (chapitre 3), les
oléagineux et les produits oléagineux (chapitre 4), le sucre (chapitre 5), la viande (chapitre 6), le lait et les
produits laitiers (chapitre 7), les produits halieutiques et aquacoles (chapitre 8), les biocarburants
(chapitre 9), le coton (chapitre 10), et les autres produits (chapitre 11).
Partie 4 : Annexe statistique. L’annexe statistique présente les projections de la production, de la
consommation, des échanges et des prix des différents produits agricoles, halieutiques et aquacoles, ainsi
que des biocarburants, de même que les hypothèses relatives à la conjoncture macroéconomique et à
l’action des pouvoirs publics. L’évolution des marchés durant la période examinée est représentée par les
taux de croissance annuels et par la comparaison entre les données relatives à la dernière année (2030)
et celles correspondant à une période triennale de référence (2018-20). L’annexe statistique n’apparaît
pas dans la version imprimée des Perspectives, mais elle est disponible en ligne.
Encadré 1.1. La guerre de la Russie contre l’Ukraine
La guerre de la Russie contre l’Ukraine (ci-après dénommée « guerre »), y compris l'annexion de la
Crimée, a commencé en 2014. Les mesures politiques qui ont été prises en réaction et leurs
conséquences économiques ont façonné depuis lors les marchés agricoles mondiaux. Jusque-là
abondantes, les importations russes de viande, de produits laitiers ainsi que de fruits et légumes en
provenance de l’Union européenne, d’Amérique du Nord et de plusieurs autres pays ont alors
quasiment cessé après qu'un embargo ait été prononcé pour marquer l’opposition à l’annexion de 2014.
Depuis lors, cette situation s’est aggravée pour finalement atteindre un paroxysme avec la guerre
ouverte lors de l’invasion de l’Ukraine par la Russie le 24 février 2022, cette situation entraînant de
nouveaux bouleversements sur les marchés mondiaux et menaçant la sécurité alimentaire à un
moment où les prix mondiaux des produits agricoles sont déjà élevés.
L'importance de l’Ukraine et de la Russie pour les marchés agricoles mondiaux
L’Ukraine et la Russie figurent parmi les plus gros producteurs et exportateurs de produits d’origine
végétale au monde, en particulier de blé, d’orge, de maïs, de graines de tournesol et de colza. En
revanche, leur production animale est destinée principalement à leurs marchés intérieurs.
Sur les cinq dernières saisons, la Russie et l’Ukraine représentaient respectivement 10 % et 3 % de la
production mondiale de blé en moyenne. Ces deux pays se classent respectivement à la première et
la cinquième place mondiale pour leurs exportations de blé, qui représentent 20 % et 10 % des
exportations totales. Ils jouent, l’un comme l’autre, un rôle capital dans l'approvisionnement en blé des
marchés internationaux, notamment dans la région Proche-Orient et Afrique du Nord, où le blé est le
principal aliment de base.
La Russie et l’Ukraine représentent 20 % de la production mondiale d’orge, dont ils sont respectivement
les troisième et quatrième plus gros exportateurs. Leur production est utilisée en majorité dans le
secteur de l’élevage pour nourrir les animaux.
PERSPECTIVES AGRICOLES DE L’OCDE ET DE LA FAO 2022-2031 © OCDE/FAO 2022
23
L’Ukraine est le premier producteur mondial de graines de tournesol, suivie par la Russie. Ensemble,
ces deux pays représentent plus de la moitié de la production mondiale. La majorité de leur production
de cette céréale est transformée sur le territoire national pour en faire de l'huile et du tourteau. L'huile
de tournesol est également exportée dans le monde entier, ce qui fait de l’Ukraine le quatrième plus
gros exportateur d'huile végétale.
Pour ce qui est du colza, du maïs et du soja, les deux pays représentent moins de 5 % de la production
mondiale, la plus grosse part étant assurée par l’Ukraine. Leur consommation intérieure étant limitée,
la majorité de leur production est exportée. L’Ukraine se classe à la troisième place mondiale pour ses
exportations de maïs et de colza. Elle arrive en tête pour les exportations de soja, hors Amériques.
Pour ces trois céréales, l’Ukraine occupe un statut à part sur les marchés mondiaux car elle est le plus
gros pays exportateur de produits sans OGM et un important exportateur d'aliments pour animaux
biologiques.
La situation sur les marchés mondiaux des intrants
La Russie joue un rôle important sur les marchés mondiaux de l’énergie et des engrais. Elle se classe
à la première place mondiale pour ses exportations de gaz naturel, à la deuxième pour celles de pétrole,
et à la troisième pour celles de charbon, à hauteur de respectivement 10 %, 11 % et 18 % pour l’année
2021 (FAO, 2022[1]). Le pays est également le premier exportateur mondial d’engrais azoté, le
deuxième plus gros exportateur d’engrais potassique et le troisième plus gros exportateurs d’engrais
phosphaté (FAO, 2022[1]), soit un cumul de plus de 15 % des exportations mondiales d’engrais en 2020
(UNTAD, 2022[2]).
Déjà élevés, les prix mondiaux de l’énergie et des engrais se sont encore accrus sous l’effet de la
guerre et de l’incertitude qui en résulte concernant la disponibilité des sources d’énergie et des engrais
russes à l’échelle mondiale. Le secteur agroalimentaire étant très énergivore, la hausse des prix de
l’énergie et des engrais se traduit actuellement par une majoration des coûts de production et une
augmentation des prix des produits alimentaires (voir l’Encadré 1.3).
L'impact sur la production et les exportations de produits agricoles par l’Ukraine
En mai 2022, 8 millions de personnes avaient été déplacées à l’intérieur de l’Ukraine et 6.3 millions
avaient fui le pays suite à la guerre ; à la même période, 1.9 million d’Ukrainiens étaient revenus dans
leur pays (UNHCR, 2022[3]). Un tel nombre de personnes déplacées suscite de grandes inquiétudes en
matière de sécurité alimentaire. S’agissant en particulier des déplacés internes, les circuits logistiques
intérieurs doivent être maintenus en service afin de fournir de la nourriture ainsi que d’autres biens et
services essentiels, notamment dans les régions où un grand nombre d’Ukrainiens sont venus se
réfugier pour fuir les combats. De nombreuses initiatives ont été lancées pour assurer la sécurité
alimentaire, que ce soit par l’approvisionnement direct en nourriture ou par le maintien des circuits de
distribution en état de fonctionnement.
Les exploitants agricoles ukrainiens ont fait preuve d'une grande résilience face aux perturbations
causées par la guerre et, lorsque les conditions de sécurité agricoles le permettent sur le terrain,
continuent d’assurer la production, tant animale que végétale. S'étendant sur quelque 9 Mha, les
cultures d’hiver plantées à l’automne 2021 ont atteint des niveaux similaires à la saison de 2020, le blé
et l’orge étant parfois remplacés par du colza. En mai 2022, les conditions climatiques des cultures
d'hiver sont favorables et, si l'on s’en tient au calendrier agricole, ces cultures nécessiteront l’apport
d’engrais et d'autres travaux d’entretien avant que la récolte ne commence, à la fin juin 2022. Le semis
des cultures de printemps de 2022 est en voie d’achèvement, avec des niveaux annoncés en baisse
d’environ 20 % par rapport à l’année dernière, en particulier pour ce qui concerne les principales
cultures (c’est-à-dire les graines de tournesol, le maïs et l’orge de printemps). De manière générale, la
PERSPECTIVES AGRICOLES DE L’OCDE ET DE LA FAO 2022-2031 © OCDE/FAO 2022
24
récolte devrait être plus faible, notamment à cause des dommages directs causés aux cultures d'hiver
par les combats, des cultures de printemps n’ayant pas pu être semées à cause de la poursuite de la
guerre, et du coût élevé des intrants. D’après les premières estimations, la récolte de 2022 devrait être
inférieure de plus de 30 % à celle de 2021 (FAO, 2022[1]) (USDA, 2022[4]), mais la production sera sans
doute supérieure aux besoins intérieurs.
S'agissant de la production animale, son suivi est beaucoup moins détaillé que celui de la production
végétale, mais l’on sait qu’elle n’a pas cessé non plus. Pour autant, la guerre aura probablement des
conséquences sur la capacité de l’Ukraine à contrôler les maladies animales (notamment la peste
porcine africaine), ce qui augmentera significativement le risque de prolifération dans le pays et chez
ses voisins.
Dans la mesure où plus de la moitié de la production végétale ukrainienne est destinée à l’exportation,
la dimension logistique de cette chaîne d'approvisionnement joue un rôle capital. Toute perturbation de
cette chaîne pourrait entraîner des pertes substantielles à l’exportation. Par le passé, plus de 90 % des
exportations ukrainiennes de produits d’origine végétale étaient acheminés par voie maritime depuis
les ports de la mer d’Azov et de la mer Noire. Ces ports ne sont aujourd'hui pas accessibles du fait de
la guerre. Les autres canaux utilisés pour l’exportation (axes terrestres, voies ferroviaires et voies
fluviales) n’ont pas la capacité d’absorber les mêmes volumes que les ports maritimes. Il est donc
estimé que seuls 20 % des quantités habituelles peuvent aujourd'hui être exportés. Des initiatives sont
en cours aux niveaux national et international pour accroître les capacités de ces autres canaux
d’exportation et pour trouver des alternatives. Cela dit, des volumes plus importants qu’habituellement
sont toujours immobilisés du fait des problèmes logistiques limitant actuellement les exportations de la
récolte de 2021. La récolte de juin-septembre 2022 va rapidement se traduire par l'accumulation de
grandes quantités de produits qui devront également être stockées pour éviter des pertes de grande
ampleur. Les dommages causés à certaines installations de stockage et de transformation sont d'autres
facteurs retardant et limitant les exportations.
L'impact sur les exportations de produits agricoles par la Russie
La récolte de blé de 2021 en Russie a été inférieure à la moyenne à cause des mauvaises conditions
météorologiques pendant la période de croissance. Le pays avait donc décidé, avant la guerre, de
restreindre ses exportations de blé, notamment en imposant des taxes. La guerre a ensuite entraîné
un accès réduit aux ports (en particulier en mer d’Azov) et un renforcement des restrictions des
exportations. Cela n’a cependant pas empêché la Russie de maintenir une partie de ses exportations.
Si les sanctions imposées au pays n’ont jusqu’ici pas ciblé les échanges agricoles, de nombreuses
entreprises multinationales – y compris du secteur agroindustriel – ont néanmoins réduit leurs activités
sur le territoire russe. Les sanctions financières, la classification des risques par les compagnies
d'assurance et d'autres incertitudes économiques ont conduit à une baisse du prix du blé russe par
rapport à celui provenant d'autres pays. Par ailleurs, la perte de marchés d’exportations pour les
produits agricoles russes pourrait entraîner la baisse des revenus des producteurs, et donc menacer
les plantations futures.
L’agriculture russe dépend des importations de pesticides, de médicaments vétérinaires et de
technologies agricoles (machines et logiciels, par exemple). Un accès réduit à ces intrants pourrait par
conséquent nuire à sa capacité de production future.
Les impacts sur la sécurité alimentaire mondiale
Dans de nombreux pays du monde, l’alimentation de la population repose sur les céréales et dépend
en particulier des importations de blé et de graines oléagineuses provenant d’Ukraine et de Russie. De
nombreux producteurs dépendent quant à eux des exportations d’engrais de la Russie. La majorité du
PERSPECTIVES AGRICOLES DE L’OCDE ET DE LA FAO 2022-2031 © OCDE/FAO 2022
25
blé et une grande part des autres produits agricoles distribués par le Programme alimentaire mondial
(PAM) sont achetés à l’Ukraine. Selon les mesures de l’équilibre des marchés établies en avril 2022 à
l’aide du système d'information sur les marchés agricoles (AMIS) du G20, l’offre mondiale de blé et
d'autres produits agricoles est suffisante, mais les marchés sont tendus et n'importe quel choc peut
bouleverser l’équilibre. Cependant, les ajustements des flux commerciaux et la hausse des coûts de
l’énergie se traduisent par l’augmentation du prix des produits agricoles sur les marchés internationaux.
En mars 2022, l’indice FAO des prix des produits alimentaires a atteint son plus haut niveau depuis
1990, à 159.7 points. Bien qu’ayant légèrement reculé en avril – à 158.5 points –, cet indice était encore
30 % plus élevé qu'un an en arrière à la même période (FAO, 2022[5]). Les populations fragiles
consacrant une grande partie de leur revenu à l’alimentation sont particulièrement vulnérables face à
la flambée des prix, surtout dans les pays à faible revenu et à déficit alimentaire.
Compte tenu des ajustements qui s'imposent au regard des échanges internationaux de céréales – afin
de trouver des sources d'approvisionnement alternatives au cas où les exportations de l’Ukraine et,
dans une moindre mesure, de la Russie, continueraient à être perturbées –, il est important de
préserver les échanges de produits alimentaires et d’engrais afin d’éviter que la guerre n’empêche la
satisfaction des besoins de production et de consommation à l’échelle mondiale. Toute mesure mise
en place par les pouvoirs publics pour faire face à la flambée des prix doit être soigneusement réfléchie
en tenant compte de ses effets potentiellement néfastes, à court et à long terme, sur les marchés
mondiaux. La transparence est un autre aspect essentiel lorsque, s'agissant des produits agricoles, les
marchés mondiaux doivent s'adapter aux variations de l’offre et de la demande. Des initiatives comme
l’AMIS sont très importantes pour améliorer cette transparence.
La guerre et ses conséquences sur l’économie mondiale sont les principales incertitudes qui entourent
les projections de référence de l’édition actuelle des Perspectives, en particulier pour les premières
années de la période examinée. Les Perspectives prennent en compte l'impact de la guerre seulement
au cours de l’année commerciale 2022/23 et supposent que la reprise commence par la suite. L’impact
à moyen-terme de la guerre sur les marchés agricoles ne peut être évalué sur la base des données
actuellement disponibles.
Plusieurs scénarios ont été étudiés à l’aide du modèle Aglink-Cosimo, en envisageant différents
niveaux de récolte et d’exportation de toutes les productions végétales de l’Ukraine ainsi que différents
niveaux d’exportation du blé russe pendant la prochaine année commerciale (2022/23). Le Tableau 1.1
montre l’impact de ces scénarios sur le prix mondial du blé. L’absence totale d’exportations de la part
de l’Ukraine entraînerait une hausse du prix du blé de 19 %. On voit donc combien il est important de
préserver la capacité de production et d’exportation de ce pays. Dans le scénario extrême où il n’y
aurait plus non plus d’exportations de la Russie, le prix du blé serait 34 % plus élevé qu’en l’absence
de guerre. Ce scénario équivaudrait à la non-commercialisation par l’Ukraine et la Russie de 36 Mt de
blé, qui serait compensée par une hausse de 16 Mt des exportations d’autres pays due au
renchérissement des prix à l'échelle mondiale.
Dans une autre analyse s’appuyant sur l’évolution des prix mondiaux et de leur transmission, la FAO
(2022[1]) prévoit une augmentation de la prévalence de la sous-alimentation d’environ 1 % à l'échelle
mondiale en 2022/23, soit entre 8 et 13 millions de personnes, en fonction de la gravité supposée de
la réduction des exportations. Un scénario simulant un grave déficit des exportations de l'Ukraine et de
Russie en 2022/23 et 2023/24, et supposant qu'il n'y a pas de réponse de la production mondiale,
suggère une augmentation du nombre de personnes sous-alimentées de près de 19 millions de
personnes en 2023/24. Cela s'ajoute à la récente hausse de la sous-alimentation qui a été enregistrée
au niveau mondial suite à la pandémie de COVID-19.
Les impacts de la guerre qui sont décrits ici découlent de la situation actuelle et ne concernent que les
années de commercialisation 2021 et 2022. L'éventuelle prolongation de la guerre au-delà de 2022
PERSPECTIVES AGRICOLES DE L’OCDE ET DE LA FAO 2022-2031 © OCDE/FAO 2022
26
sera source de nouvelles complications et apportera de nouvelles incertitudes aux projections sur
dix ans.
Tableau 1.1. Variation relative du prix mondial du blé : les scénarios du modèle Aglink-Cosimo
Restriction des exportations de blé par la Russie
Baisse des exportations de l’Ukraine
0%
0%
0
-10 %
2%
-25 %
5%
-50 %
11 %
-25 %
4%
6%
10 %
16 %
-50 %
9%
11 %
15 %
21 %
-100 %
19 %
22 %
26 %
34 %
Note : la cellule située en haut à gauche correspond à la situation hypothétique dans laquelle les exportations des deux pays sont aux
mêmes niveaux que les années passées (donc différentes des données présentées dans les Perspectives). Les pourcentages figurant dans
la colonne de gauche correspondent à la réduction de la production et des exportations de céréales en Ukraine. Les pourcentages figurant
dans la rangée du haut correspondent à la restriction des exportations de blé de la Russie.
Source : OCDE/FAO (2022), « Perspectives agricoles de l’OCDE et de la FAO », Statistiques agricoles de l’OCDE (base de données),
https://doi.org/10.1787/agr-data-fr.
Références FAO (2022a), Information Note: The importance of Ukraine and the Russian Federation for global agricultural markets and the
risks associated with the current conflict; 25 March 2022; https://www.fao.org/3/cb9236en/cb9236en.pdf FAO (2022b), “In Focus: FAO
responds to the Ukraine crisis” (https://www.fao.org/in-focus/en/) UNCTAD (2022), Global impact of war in Ukraine on food, energy and
finance systems, https://news.un.org/pages/wp-content/uploads/2022/04/UN-GCRG-Brief-1.pdf UNHCR (2022), Ukraine Refugee Situation,
https://data2.unhcr.org/en/situations/ukraine USDA (2022), World Agricultural Supply and Demand Estimates, May 2022,
https://www.usda.gov/oce/commodity/wasde/wasde0522.pdf
PERSPECTIVES AGRICOLES DE L’OCDE ET DE LA FAO 2022-2031 © OCDE/FAO 2022
27
Graphique 1.1. Situation des principaux marchés
Conditions de marché actuelles
Céréales : Les prix des céréales sont à la hausse depuis la mi2020, et cette tendance se poursuit au cours de la campagne
2021/2022. Les prix du blé ont fortement augmenté, à la suite
d’une baisse des récoltes dans les principaux pays producteurs et
d’une réduction des exportations en provenance d’Ukraine. Les
prix des céréales secondaires ont également fortement augmenté,
mais les prix internationaux du riz étaient en moyenne en 2021 de
4 % inférieurs à leur niveau de 2020 en raison de l’abondance des
approvisionnements.
Oléagineux : Les prix internationaux des oléagineux ont continué
de grimper, portés par la forte demande de soja de la Chine dans
un contexte de baisse de la production mondiale. La récolte de
colza est peu abondante au Canada, alors qu’en Amérique latine
celle de soja a été affectée par la sécheresse et que la production
d’huile de palme en Malaisie subit encore les effets des
perturbations provoquées par la pandémie de COVID-19. La
hausse des prix alimentaires freine la croissance de la demande
de produits oléagineux.
Sucre : La consommation mondiale de sucre poursuit son
rebond après la récession liée au COVID-19, tandis que l’offre
repart à la hausse grâce à de meilleures conditions
météorologiques dans certains des principaux pays producteurs,
à l’exception du premier exportateur mondial, le Brésil. La forte
hausse des prix du pétrole brut accroît la concurrence de la
production d’éthanol à partir de la canne à sucre au Brésil et
favorise l’augmentation des prix internationaux du sucre.
Viande : Les prix internationaux de la viande ont été à la hausse
en 2021, sous l’effet d’une augmentation de la demande
imputable à la reprise économique, ainsi que d’un alourdissement
des coûts de transport et de distribution. Les prix de la viande ont
cependant sensiblement baissé par rapport à ceux des aliments
pour animaux, exerçant une forte pression sur la rentabilité du
secteur. La relance de la production en cours en Chine après
l’épidémie de PPA a été le principal moteur de la croissance des
marchés mondiaux de la viande.
Indice à la consommation
Indice des prix réels
Moyenne 2012-21 = 100
Moyenne 2012-21 = 100
Prix des céréales
Consommation de céréales
140
140
120
120
100
100
80
80
60
2019
2020
2021
60
2019
140
120
120
100
100
80
80
2019
2020
2021
60
2019
Consommation de sucre
140
120
120
100
100
80
80
2019
2020
2021
60
2019
Consommation de viande
140
2021
2020
2021
Prix de la viande
140
120
120
100
100
80
80
60
2020
Prix du sucre
140
60
2021
Prix des oléagineux
Consommation d’oléagineux
140
60
2020
2019
2020
2021
PERSPECTIVES AGRICOLES DE L’OCDE ET DE LA FAO 2022-2031 © OCDE/FAO 2022
60
2019
2020
2021
28
Produits laitiers : Malgré les confinements et les perturbations
des transports provoqués par la pandémie de COVID-19, le
secteur laitier a bien résisté. La croissance de la consommation
de produits laitiers a repris, portée par la forte demande des
pays asiatiques et, dans une moindre mesure, du Moyen-Orient.
Les prix des produits laitiers, qui avaient chuté en 2020, ont
rebondi en 2021, stimulés par la demande chinoise
d’importations de fromage et de lait en poudre, qui a été
satisfaite par des exportations en provenance de NouvelleZélande et de l’Union européenne.
Poisson : Les efforts pour atténuer la propagation du COVID19 ont abouti à une demande réduite de poisson, ainsi qu’à des
perturbations de la production, des chaînes
d’approvisionnement et des marchés au cours de 2020. En
2021, la consommation a rebondi, avec une vigueur particulière
en Europe et en Amérique. La rapide réouverture des
économies après les confinements a entraîné un sensible
redressement des prix des produits halieutiques et aquacoles
en 2021.
Biocarburants : Stimulée par la reprise économique, par la
demande de combustibles fossiles, ainsi que par les taux
d’incorporation prescrits dans certains pays, la consommation
de biocarburants se remet actuellement de l’effondrement de la
demande au cours de la première année de la pandémie de
COVID-19. Cependant, les coûts des matières premières et
ceux de production sont élevés, ce qui érode la rentabilité de la
production de biocarburants, tels que le biodiesel en Argentine.
Les prix des biocarburants ont atteint des niveaux
historiquement élevés en 2021.
Consommation de
produits laitiers
140
140
120
120
100
100
80
80
60
2019
2020
2021
60
Consommation de poisson
140
120
120
100
100
80
80
60
2019
2020
2021
Consommation de
biocarburants
140
60
100
100
80
80
2020
2021
140
60
100
100
80
80
2020
2021
2020
2021
2019
2020
2021
Prix du coton
120
2019
2019
140
120
60
2021
Prix des biocarburants
120
2019
2020
140
120
60
2019
Prix du poisson (échangé)
140
Consommation de coton
Coton : Les prix internationaux du coton ont augmenté en
2021, prolongeant leur tendance à la hausse entamée en mai
2020. Début 2022, les prix du coton étaient en moyenne de près
de 50 % supérieurs à ceux de 2021. Ces prix élevés étaient
principalement une conséquence des augmentations de la
consommation dans la plupart des pays producteurs de textiles.
Prix des produits laitiers
60
2019
2020
2021
Note : toutes les données sont exprimées sous la forme d’un indice dont la base 100 correspond à la moyenne des dix dernières années (201221). On entend par consommation les volumes de la consommation mondiale. Les indices de prix sont pondérés par la valeur moyenne de la
production mondiale sur les dix dernières années, calculée à l’aide des prix internationaux en valeur réelle. On trouvera davantage d’informations
sur la situation des différents marchés et leurs évolutions dans les aperçus par produit présentés en annexe, ainsi que dans la version en ligne
des chapitres par produit.
Source : OCDE/FAO (2022), Perspectives agricoles de l’OCDE et de la FAO ; Statistiques agricoles de l’OCDE (base de données),
http://dx.doi.org/10.1787/agr-outl-data-fr.
StatLink 2 https://stat.link/1ecf27
PERSPECTIVES AGRICOLES DE L’OCDE ET DE LA FAO 2022-2031 © OCDE/FAO 2022
29
1.2. Hypothèses concernant la situation macroéconomique et les politiques
publiques
1.2.1. Principales hypothèses sur lesquelles repose le scénario de référence
Ces Perspectives présentent un scénario de référence cohérent pour l’évolution à moyen terme des
marchés des produits agricoles, halieutiques et aquacoles qui repose sur une série d’hypothèses relatives
à la conjoncture macroéconomique, aux politiques publiques et à la situation démographique. Cette
section expose les principales hypothèses sur lesquelles repose ce scénario. Les données détaillées sont
disponibles dans l’annexe statistique.
1.2.2. Croissance démographique
Pour les projections démographiques, les Perspectives utilisent les estimations de la variante moyenne
tirées de la révision de 2019 de la base de données du rapport de l’ONU sur les Perspectives de la
population dans le monde.
Au cours de la période de projection, la population mondiale devrait s’accroître et passer de 7.8 milliards
de personnes en 2021 à 8.6 milliards de personnes en 2031. Cela correspond à une croissance annuelle
moyenne de 0.9 %, en perte de vitesse par rapport au rythme de 1.1 % par an enregistré au cours de la
dernière décennie. L’accroissement démographique est concentré dans les régions en développement,
en particulier en Afrique subsaharienne, qui devrait afficher le plus fort taux de croissance, soit 2.5 % par
an, dans les dix ans à venir (Graphique 1.2). L’Inde, qui comptera 1.51 milliard d’habitants en 2031, devrait
dépasser la République populaire de Chine (ci-après « Chine ») et devenir le pays le plus peuplé de la
planète.
Graphique 1.2. Croissance de la population mondiale
Million
90
(a) Changements de population d'une année sur l'autre
Am. du Nord
ECA
NENA
ALC
Reste de l'Asie
Chine
Inde
Afrique Sub-Sah.
(b) Croissance démographique annuelle
%
Croissance annuelle 2012-21
Croissance annuelle 2022-31
3
80
2.5
70
2
60
50
1.5
40
1
30
20
0.5
10
0
2003
0
2007
2011
2015
2019
2023
2027
2031
Afrique SubSah.
Inde
Chine
OCDE
Monde
Note : ALC = Amérique latine et Caraïbes ; ASS = Afrique subsaharienne ; EAC = Europe et Asie centrale ; NENA = Proche-Orient et Afrique
du Nord (on en trouve une définition au chapitre 2) ; Reste de l’Asie = Asie-Pacifique moins la Chine et l’Inde.
Source : OCDE/FAO (2022), Perspectives agricoles de l’OCDE et de la FAO ; Statistiques agricoles de l’OCDE (base de données),
http://dx.doi.org/10.1787/agr-outl-data-fr.
StatLink 2 https://stat.link/r1z2cs
PERSPECTIVES AGRICOLES DE L’OCDE ET DE LA FAO 2022-2031 © OCDE/FAO 2022
30
1.2.3. Croissance du PIB et du revenu par habitant
Les estimations du PIB et du revenu par habitant au niveau national au cours de la prochaine décennie
reposent sur les Perspectives de l’économie mondiale du FMI (avril 2022). Les revenus par habitant sont
exprimés en USD constants de 2010.
Après un rebond de 5.4 % en 2021 à la suite de la récession provoquée de 2020 par la pandémie de
COVID-19, la croissance du PIB mondial devrait ralentir en 2022 et 2023 et se stabiliser à un taux moyen
de 2.7 % au cours de la prochaine décennie. Le rythme de la reprise devrait toutefois être inégal selon les
pays et les régions. Les économies de l’Asie-Pacifique, de l’Amérique du Nord, et de l’Afrique
subsaharienne avaient déjà retrouvé leur niveau antérieur à la crise du COVID-19 en 2021. Dans les
régions Amérique latine et Caraïbes, Europe et Asie centrale, et Proche-Orient et Afrique du Nord, le PIB
devrait retrouver sa valeur de 2019 en 2022. Au cours de la période 2022-31, le PIB continuera
d’enregistrer une forte croissance dans la région Asie-Pacifique, en particulier en Inde, en Chine, ainsi
qu’en Asie du Sud-Est, à un rythme moyen d’environ 4 % par an. En Afrique subsaharienne, ainsi qu’au
Proche-Orient et en Afrique du Nord, une croissance moyenne du PIB de 4 % par an et 3 % par an,
respectivement, est prévue au cours des dix prochaines années. Le PIB global des économies de l’OCDE
devrait enregistrer une croissance moyenne plus faible, égale à 1.8 % par an.
Dans ces Perspectives, le revenu moyen par habitant au niveau national est mesuré par approximation à
l’aide du PIB réel par habitant. Cet indicateur est utilisé pour représenter le revenu disponible des
ménages, qui constitue l’un des principaux déterminants de la demande de produits agricoles. Cependant,
comme le montre le Rapport 2020 sur la pauvreté et la prospérité partagée publié par la Banque mondiale,
la croissance économique mondiale est inégalement répartie. Il apparaît en particulier que dans plusieurs
pays d’Afrique subsaharienne, les revenus des 40 % les plus pauvres n’ont pas crû aussi vite que le revenu
moyen. Aussi les projections du niveau moyen de la demande nationale de produits agricoles établies
pour les présentes Perspectives peuvent-elles s’écarter de la trajectoire attendue sur la base de la
croissance du revenu moyen. Par ailleurs, la pandémie de COVID-19 a aggravé les inégalités de revenus
au sein des pays. En 2020-21, le taux de croissance annuel du revenu par habitant des 40 % les plus
pauvres de la population a fortement diminué dans toutes les économies (par rapport à la période 201217).
Après avoir baissé en 2020, le revenu mondial par habitant a enregistré en 2021 une progression de 4.4 %
qui devrait toutefois ralentir en 2022 et 2023. Au cours des dix prochaines années, le taux de croissance
annuel moyen devrait s’élever à 1.8 % en termes réels. Une forte hausse est attendue en Asie, où le
revenu par habitant devrait augmenter de 5.3 % par an en Inde et de 4.8 % par an en Chine. Le revenu
par habitant devrait également connaître une forte progression au Viet Nam, à 5.8 % par an, ainsi qu’aux
Philippines, en Indonésie et en Thaïlande à 4.9 %, 4.2 % et 3.1 % par an, respectivement.
En Afrique subsaharienne, les revenus moyens par habitant devraient augmenter lentement, à un rythme
de 1.3 % par an au cours de la prochaine décennie. D’après les projections, le revenu réel par habitant
stagnera probablement au Nigéria et en Afrique du Sud mais sera robuste en Éthiopie, où il devrait
atteindre 3.5 % par an. Dans la région Amérique latine et Caraïbes, la progression du revenu moyen par
habitant devrait atteindre 1.6 % par an, tiré par une forte croissance en Colombie, au Paraguay, et au Chili,
de 2.9 %, 2.4 % et 2 % par an, respectivement, alors qu’un taux de croissance annuel moyen de 1.5 % et
1.7 % est attendu au Brésil et en Argentine, respectivement. Dans la région Proche-Orient et Afrique du
Nord, la hausse du revenu moyen par habitant devrait s’élever à 1.6 % par an, grâce à l’effet
d’entraînement exercé par la région du Proche-Orient, et plus particulièrement par la Jordanie et les
Émirats, où la progression devrait atteindre 2.7 % et 3.1 % par an, respectivement. Une forte augmentation
du revenu par habitant est également attendue en Égypte, à 3.8 % par an, alors qu’en Arabie saoudite le
revenu par habitant devrait progresser au rythme annuel de 1.6 % au cours des dix prochaines années.
PERSPECTIVES AGRICOLES DE L’OCDE ET DE LA FAO 2022-2031 © OCDE/FAO 2022
31
Les revenus moyens par habitant devraient s’accroître de 1.8 % et 1.3 % par an en Europe et en Océanie,
respectivement, jusqu’en 2031. Ces taux de croissance sont conformes à la moyenne de la zone OCDE,
où le revenu par habitant devrait progresser au rythme d’environ 1.3 % par an. Parmi les pays de l’OCDE,
la progression la plus forte des revenus par habitant devrait être enregistrée par la Colombie, suivie par la
Türkiye et la Corée, avec 2.9 %, 2.6 % et 2.5 % par an respectivement, alors qu’elle sera probablement la
plus lente au Canada, avec 0.9 % par an. Dans l’Union européenne, aux États-Unis et au Japon, les
revenus par habitant devraient augmenter de 1.8 %, 1.2 % et 1.1 % par an, respectivement.
Graphique 1.3. Revenu par habitant
moyenne 2019-21
2031
'000 USD
70
60
50
40
30
20
10
0
Inde
Chine
Afrique Sub-Sah.
ALC
ASE
Océanie
NENA
Europe
Amérique du Nord
Monde
Note : ALC = Amérique latine et Caraïbes ; ASE = Asie du Sud-Est ; ASS = Afrique subsaharienne ; NENA = Proche-Orient et Afrique du Nord
(on en trouve une définition au chapitre 2). Le graphique montre le PIB par habitant en USD constants de 2010.
Source : OCDE/FAO (2022), Perspectives agricoles de l’OCDE et de la FAO ; Statistiques agricoles de l’OCDE (base de données),
http://dx.doi.org/10.1787/agr-outl-data-fr.
StatLink 2 https://stat.link/qfgdvw
Le Graphique 1.4 présente aussi une décomposition des hypothèses de croissance du PIB entre deux
éléments : la croissance du PIB par habitant et la croissance de la population pour les principales régions
et certains pays. À l’échelle mondiale, la croissance économique sera principalement déterminée par celle
du revenu par habitant, en particulier dans les pays de l’OCDE et en Chine. La forte croissance
démographique enregistrée en Afrique subsaharienne signifie en revanche que le taux de croissance
économique relativement élevé de la région (près de 3.8 % par an) ne correspond qu’à une modeste
hausse du revenu par habitant (d’environ 1.3 % par an). Il en va de même, dans une moindre mesure,
dans la région Proche-Orient et Afrique du Nord. À l’inverse, la modeste croissance économique de 1.7 %
par an constatée en Europe, où la population devrait diminuer dans les dix années à venir, se traduira
vraisemblablement par un taux d’augmentation du revenu par habitant de 1.8 % par an au cours de la
prochaine décennie.
PERSPECTIVES AGRICOLES DE L’OCDE ET DE LA FAO 2022-2031 © OCDE/FAO 2022
32
Graphique 1.4. Taux de croissance annuels du PIB
%
Croissance du PIB par habitant 2022-31
Croissance de la population 2022-31
Croissance du PIB 2012-21
7
6
5
4
3
2
1
0
-1
-2
Inde
Chine
Afrique SubSah.
ALC
ASE
Océanie
NENA
Europe
Amérique du
Nord
Monde
Note : ALC = Amérique latine et Caraïbes ; ASE = Asie du Sud-Est ; ASS = Afrique subsaharienne ; NENA = Proche-Orient et Afrique du Nord
(on en trouve une définition au chapitre 2). Le graphique montre le PIB par habitant en USD constants de 2010.
Source : OCDE/FAO (2022), Perspectives agricoles de l’OCDE et de la FAO ; Statistiques agricoles de l’OCDE (base de données),
http://dx.doi.org/10.1787/agr-outl-data-fr.
StatLink 2 https://stat.link/963t15
1.2.4. Taux de change et inflation
Les hypothèses de taux de change sont fondées sur les Perspectives de l’économie mondiale du FMI
(avril 2022). Les taux de change nominaux par rapport au dollar américain sont principalement déterminés
par les différences d'inflation par rapport aux États-Unis. Avec une forte inflation attendue notamment en
Argentine, en Égypte et en Éthiopie, les devises de ces pays devraient se déprécier significativement en
termes nominaux. En termes réels, les taux de change sont supposés plus stables pour la période 202231 ; mais certaines devises devraient s'apprécier significativement par rapport au dollar américain, comme
celles du Chili, du Nigeria, du Brésil et de la Chine. En revanche, une dépréciation significative en termes
réels est attendue pour l'Inde.
Les projections de l’inflation reposent sur le déflateur de la consommation des ménages issu des
Perspectives de l’économie mondiale du FMI (avril 2022). Dans les pays de l’OCDE, l’inflation devrait être
sensiblement plus élevée qu’au cours des dix années précédentes et s’établir à 5.2 % par an, avec un
taux d’inflation annuel très élevé en Türkiye à 15.8% and un taux moyen atteignant 2.1 % par an aux ÉtatsUnis, 2 % par an au Canada et 2.1 % par an dans la zone euro. Parmi les économies émergentes, le taux
d’inflation devrait demeurer élevé en Argentine, où il se situera à 15.8 % et 9 % par an, respectivement,
malgré une forte baisse par rapport à la décennie précédente. L’inflation devrait ralentir en Inde, où elle
passera de 4.9 % par an à 3.9 % par an, ainsi qu’au Brésil, où elle tombera de 6 % par an à 3 % par an.
En Chine, en revanche, les prix à la consommation devraient augmenter au même rythme (2 % par an) au
cours de la dernière décennie. L’inflation devrait demeurer élevée en Afrique subsaharienne (13.4 % par
an en Éthiopie, 10.7 % par an au Nigéria et 6.3 % par an au Ghana). Une inflation élevée est également
attendue en Égypte (7.2 % par an) et au Pakistan (6.5 % par an).
1.2.5. Coûts des intrants
Les projections de la production présentées dans les Perspectives reposent sur un indice composite basé
sur le coût des semences, de l’énergie et des engrais, ainsi que de divers autres intrants faisant ou non
PERSPECTIVES AGRICOLES DE L’OCDE ET DE LA FAO 2022-2031 © OCDE/FAO 2022
33
l’objet d’échanges internationaux. Cet indice est construit en utilisant la part respective des différents
intrants dans les coûts de production totaux pour chaque pays et chaque produit, laquelle est maintenue
constante pendant toute la durée de la période de projection. Les prix de l’énergie sont représentés par le
cours international du pétrole brut exprimé en monnaie nationale. L’évolution des coûts des intrants
échangeables comme les machines et les produits chimiques est estimée à partir des variations du taux
de change réel, et celle des coûts des intrants non échangeables (la main-d’œuvre, principalement) à
partir des variations du déflateur du PIB. Le prix des semences est fonction du prix des cultures
correspondantes, alors que le prix global des engrais est mesuré par approximation à l’aide d’une formule
qui tient compte du prix des cultures et de ceux du pétrole brut.
Les données concernant les cours mondiaux du pétrole correspondent au prix du pétrole brut Brent
en 2019 et sont tirées de la version actualisée des Perspectives économiques de l’OCDE, no 110
(décembre 2021). Pour 2021, on a utilisé le prix spot quotidien moyen de l’année 2021. Pour 2022, on a
utilisé une estimation basée sur la situation en avril 2022. Pour le reste de la période étudiée, on suppose
que le prix de référence du pétrole utilisé dans les projections s’accroît au même rythme que le prix moyen
du pétrole établi par la Banque mondiale, ce qui implique une hausse qui le fait passer de 71 USD/baril
en 2021 à 89 USD/baril en valeur nominale ou et une baisse à 56 USD/baril en valeur réelle en 2031.
1.2.6. Hypothèses relatives aux politiques publiques
Les politiques publiques ont des conséquences importantes sur les marchés agricoles, des biocarburants
et des produits halieutiques et aquacoles, de sorte que les réformes de l’action publique peuvent modifier
la structure de ces marchés. Les projections présentées dans ces Perspectives reposent sur l’hypothèse
que les politiques actuellement mises en œuvre resteront en vigueur durant toute la période examinée, ce
qui permet de disposer d’un utile scénario de référence pour évaluer et analyser les futures réformes qui
pourraient leur être apportées.
Les projections des Perspectives ne tiennent pas compte de la réforme prévue de la politique agricole
commune (PAC) de l’Union européenne (UE), étant donné que les plans stratégiques des États membres,
qui décrivent comment seront atteints les objectifs de la PAC et du Pacte vert, sont encore en cours
d’examen au sein de la Commission européenne. Les plans stratégiques nationaux entreront en vigueur
au début de 2023, aussi ces Perspectives partent-elles de l’hypothèse que les politiques agricoles et
commerciales actuellement mises en œuvre au sein de l’UE seront maintenues tout au long de la période
couverte par les projections.
La relation entre l’UE-27 et le Royaume-Uni (RU) est régie par l’Accord de commerce et de coopération
UE-RU appliqué à titre provisoire depuis le 1er janvier 2021. On supposera que la relation commerciale
entre l’UE et le Royaume-Uni ne donnera lieu ni à l’application de droits de douane, ni à celle de
contingents, et les perturbations à court terme des échanges liées au renforcement des contrôles aux
frontières et aux problèmes logistiques ne seront prises en considération dans les projections que pour
l’année 2022.
Les accords de libre-échange dont il est tenu compte dans les Perspectives sont ceux ratifiés avant la fin
décembre 2021 (comme l’Association des nations de l’Asie du Sud-Est, l’Accord Canada-États-UnisMexique, ou encore la Zone de libre-échange continentale africaine), les autres (tels que le Partenariat
économique régional global ou l’Accord UE-Mercosur) étant considérés comme en suspens.
La pandémie de COVID-19 a conféré un degré supplémentaire d’incertitude aux hypothèses
macroéconomiques qui sous-tendent les projections des Perspectives. Bien que les hypothèses retenues
suggèrent que la reprise économique mondiale se poursuivra dans les années à venir, son rythme effectif
dépendra pour une large part de l’évolution des flambées de coronavirus (par exemple de la propagation
de nouveaux variants) et des taux de vaccination, ainsi que des politiques favorisant la relance de la
demande des entreprises et des consommateurs. Les Perspectives tiennent pour acquis que les
PERSPECTIVES AGRICOLES DE L’OCDE ET DE LA FAO 2022-2031 © OCDE/FAO 2022
34
restrictions appliquées pour contenir la pandémie de COVID-19 ne seront pas permanentes et seront
levées dans le cadre de la reprise économique en 2022.
1.3. Consommation
Les Perspectives agricoles de l’OCDE et de la FAO présentent des projections des tendances futures de
l’utilisation des principaux produits végétaux (céréales, oléagineux, racines et tubercules, légumineuses,
canne et betterave à sucre, huile de palme et coton) et animaux (viande, produits laitiers, œufs et poisson) 2
et leurs sous-produits3 pour l’alimentation humaine ou animale, ainsi qu’en tant que matières premières
pour la production de biocarburants et pour d’autres applications industrielles. Pour la plupart des produits,
l’alimentation humaine constitue la principale composante de leur utilisation globale. Cependant, les
utilisations à d’autres fins que l’alimentation humaine, principalement pour l’alimentation animale et pour
la production de carburants, sont également importantes pour plusieurs produits (Graphique 1.5).
L’importance de la population et les évolutions démographiques, l’augmentation des revenus et leur
répartition, ainsi que les prix alimentaires influent directement sur la demande future de denrées
alimentaires. La demande alimentaire sera également fonction des évolutions socioculturelles et de celles
des modes de vie, dont l’urbanisation et la féminisation croissante de la main-d’œuvre, ainsi que la
sensibilisation grandissante des consommateurs aux problèmes de santé et de durabilité. Les politiques
qui influent sur le prix des produits agricoles (mesures budgétaires et mesures à la frontière, par exemple)
comme, autant que possible, celles qui ont une incidence sur les habitudes de consommation (étiquetage
des denrées alimentaires, réglementations, etc.) sont également prises en compte. Ensemble, ces divers
facteurs détermineront le niveau et la structure de la demande alimentaire dans la prochaine décennie.
La demande de produits agricoles à d’autres fins que l’alimentation humaine est également déterminée
par un certain nombre de facteurs spécifiques. La demande d’aliments pour animaux est fonction de deux
grands facteurs. Premièrement, la demande globale de produits animaux, qui détermine le niveau de
production des secteurs de l’élevage et de l’aquaculture. Deuxièmement, la structure et l’efficacité des
systèmes de production, qui déterminent la quantité de fourrage nécessaire pour obtenir un volume donné
de produits de l’élevage et de l’aquaculture.
L’utilisation industrielle des produits agricoles – essentiellement comme matières premières pour la
production de biocarburants et pour l’industrie chimique – est quant à elle pour une large part influencée
par la conjoncture économique générale, par les politiques réglementaires et par le progrès technologique.
La consommation de biocarburants est très sensible à l’évolution des politiques énergétiques ainsi qu’à la
demande totale de carburant, laquelle dépend à son tour du prix du pétrole brut.
Les hypothèses macroéconomiques sur lesquelles reposent les projections portent à croire que la
pandémie de COVID-19 sera suivie d’une reprise économique généralisée. Cependant, le rythme effectif
de cette reprise dépendra de plusieurs facteurs difficiles à prévoir, ce qui confère une certaine incertitude
aux projections de la demande de produits agricoles. Les projections des Perspectives tiennent également
compte d’une moindre disponibilité des exportations en provenance de l’Ukraine et de la Russie au cours
de l’année commerciale 2022/23 (section 1.3.7).
PERSPECTIVES AGRICOLES DE L’OCDE ET DE LA FAO 2022-2031 © OCDE/FAO 2022
35
Graphique 1.5. Consommation mondiale des principaux produits
Alimentation
Mt
Alim. Anim.
Biocarburants
Autres utilisations
1400
1200
1000
800
600
400
Maïs
Autres céréales
second.
Riz
Blé
Oléagineux Légumineuses Racines et
et produits
tubercules
Viande
Produits
laitiers
Poisson
2031
2019-21
2031
2019-21
2031
2019-21
2031
2019-21
2031
2019-21
2031
2019-21
2031
2019-21
2031
2019-21
2031
2019-21
2031
2019-21
2031
0
2019-21
200
Sucre
Note : la trituration des graines oléagineuses n’est pas indiquée, car les usages des huiles végétales et des tourteaux protéiques sont inclus
dans le total ; tous les produits laitiers sont comptabilisés en équivalent matière sèche ; le sucre utilisé pour produire des biocarburants provient
de canne et de betterave, converties en équivalents sucre.
Source : OCDE/FAO (2022), Perspectives agricoles de l’OCDE et de la FAO ; Statistiques agricoles de l’OCDE (base de données),
http://dx.doi.org/10.1787/agr-outl-data-fr.
| 41,844
|
e5a929805a51631604fca4829880602f_2
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
). Nouveaux médias: mythes et expérimentations dans les arts. Deutsches Forum für Kunstgeschichte / Centre allemand d'histoire de l'art (DFK Paris); Naima Editions, 10, 2021, Passages online, 978-3-98501-003-5. ⟨10.11588/arthistoricum.825⟩. ⟨hal-04474398⟩
|
None
|
French
|
Spoken
| 7,517
| 13,304
|
À ce sujet voir Christian Kiening et Heinrich Adolf (éd.), Der absolute Film. Dokumente der Medienavantgarde (1912-1936), Zurich, 2012 (Medienwandel – Medienwechsel – Medienwissen 25), p. 419-500, et notamment p. 429–433. Bernhard Diebold, « Film und Kunst. Ein Memento an die Filmkulturträger », dans Frankfurter Zeitung 660, 7.9.1920, cité après Kiening/Adolf, 2012 (note 5), p. 58–62, ici p. 60. Sauf mention contraire, toutes les traductions sont les nôtres. Ibid. À ce sujet, voir par exemple Film als Film, 1910 bis heute. Vom Animationsfilm der zwanziger Jahre zum Filmenvironment der siebziger Jahre, éd. par Birgit Hein et Wulf Herzogenrath, cat. exp. Cologne, Kölnischer Kunstverein, Cologne, 1978. Sur cette distinction, voir Laurence Allard, « L’amateur : une figure de la modernité esthétique », dans Communications, 68, 1999, p. 9–31. Je remercie Hadrien Viraben de m’avoir signalé cet article. Nous traitons ces questions dans le cadre de notre thèse en préparation (note 4). Au sujet du Lichtspiel, voir Anne Hoormann, Lichtspiele. Zur Medienreflexion der Avantgarde in der Weimarer Republik, Munich, 2003. 34 Wassily Kandinsky et les images en mouvement Kandinsky au Bauhaus, un regard sur le film abstrait
Des témoignages de Wassily Kandinsky et de sa seconde épouse Nina, née Andreievskaia, suggèrent que le peintre avait une affection particulière pour le cinéma et qu’il s’y rendait régulièrement. Ainsi, Nina Kandinsky se souvient en 1976 que lors d’un séjour de six mois à Berlin, avant que Kandinsky ne prenne possession de son poste de professeur au Bauhaus en juin 1922, « nous nous sommes abondamment livrés à notre passion d’aller au cinéma12. » En juillet 1926, peu après son emménagement dans sa maison de maître au Bauhaus de Dessau, le peintre écrivit à son ami l’historien de l’art Will Grohmann : Et malgré tout, c’est merveilleux ici : nous vivons à la campagne, loin de la ville, on entend des poulets, des oiseaux, des chiens, nous sentons des odeurs de foin, des fleurs de tilleul, des parfums de forêt. En quelques jours, nous sommes devenus des personnes différentes ici. Même le cinéma ne nous attire pas, et ça en dit beaucoup, vraiment beaucoup13. Ce témoignage confirme que le cinéma avait pris une place importante dans le quotidien de Kandinsky avant son arrivée à Dessau ; et la pause cinématographique mentionnée dans ce courrier ne dura sans doute pas longtemps. Nina Kandinsky note en effet en 1976, dans un chapitre dédié à la personnalité de son mari, qu’aller au cinéma était pour lui un moyen de se distraire, après son travail journalier : « Après le travail, il se détendait avec de la musique, en lisant ou encore en allant au cinéma14. » Le cinéma faisait donc indirectement partie du processus créatif de Kandinsky, en tant que césure distractive. L’artiste semble avoir conservé cette habitude lors de sa période parisienne, de 1933 à 1944. Dans une lettre à son ancien élève Hans Thiemann en 1937, le peintre s’excuse du retard de sa réponse en invoquant son travail et ses loisirs, parmi lesquels il cite : J’écris déjà depuis presque huit jours cette lettre, qui est encore et encore interrompue. Je suis dérangé par ma propre peinture (je travaille en ce moment à une nouvelle œuvre qui m’éprouve beaucoup), mais aussi par d’autres choses – des visites, des « sorties » (concerts, réceptions, cinéma, etc.)15.
15 Nina Kandinsky, Kandinsky und ich, Munich, 1976, p. 96. Wassily Kandinsky à Will Grohmann, Dessau, 4 juillet 1926, cité après Barbara Wörwag (éd.), Wassily Kandinsky. Briefe an Will Grohmann, 1923-1943, Munich, 2015, p. 107. Kandinsky, 1976 (note 12), p. 236. Wassily Kandinsky à Hans Thiemann, sans lieu, 8–14 décembre 1937, cité après Christian Beutler, « Zwölf Briefe von Wassily Kandinsky an Hans Thiemann 1933-1939 », dans Wallraf-Richartz-Jahrbuch 38, 1976, p. 155–166, ici p. 164. Mari
En dehors de ces moments de détente, Kandinsky se confronta à un autre genre de cinéma, présenté au Bauhaus même. Durant les années où il y enseigna, de 1922 à 193316, et malgré les souhaits formulés durant cette période par le professeur László Moholy-Nagy, aucun cours de film ou lieu d’expérimentation filmique ne furent organisés, faute de moyens17. Le médium cinématographique joua cependant un rôle important au sein du Bauhaus, et suscita de nombreuses références dans la pratique photographique de ses membres. En témoigne une photographie qui montre Josef Albers et le couple Kandinsky posant pour un tableau vivant composé d’après un film18 (fig. 2). Les nombreux écrits et la correspondance abondante de Kandinsky ne permettent cependant pas d’établir préci2 Anonyme : Josef Albers, Nina et sément la liste des films que le peintre a pu voir, au sein du Vassily Kandinsky dans le jardin du Bauhaus à Dessau, Dessau, 1931, Bauhaus et en dehors. L’historiographie actuelle considère tirage aux sels d'argent, 8,2 x 5,9 qu’il a assisté à trois soirées cinéma organisées dans l’école cm, tirage d’époque et négatif à Dessau en juin 1930. Lors de ces manifestations artisoriginal, Centre Pompidou/ tiques, Hans Richter, intervenant au Bauhaus, présenta entre MNAM-CCI/Bibliothèque Kanautres ses films abstraits Rhythmus 2119 et Rhythmus 2320. La dinsky, Fonds Vassily Kandinsky, no inventaire : 660 Symphonie diagonale de Viking Eggeling, mort cinq ans plus tôt, fut également projetée à l’occasion de ces événements21. L’historien du cinéma Klaus Lippert rapporte en outre en 1981, mais sans citer de source, qu’après avoir vu le film d’Eggeling, Kandinsky se serait exclamé : « Cela, il l’a copié sur moi22. » Comme mentionné en introduction, à cette même époque, Kandinsky intègre le cinéma et les expérimentations qui l’entourent à ses réflexions écrites sur l’art. Kandinsky prit, le 1er juillet 1922, ses fonctions de professeur, un poste qu’il occupa au cours des installations successives du Bauhaus à Weimar, Dessau et Berlin, jusqu’en 1933. Voir Magdalena Droste, « Wassily Kandinsky
:
Der programmatische Professor am Bauhaus 1922-
1933 –
Lehrallta
g
unter drei Direktoren »,
dans
Wassily Kandinsky
– Lehrer am
Bauhaus, éd
.
par Magedalena Droste, cat.
exp.
Berlin
,
Bauhaus
-Archiv/ Museum für Gestaltung
,
Berlin, 2014, p. 32–91. Voir Thomas Tode « bauhaus & film : Mesalliance oder verpasstes Rendezvous? », dans Maske und Kothurn. Internationale Beiträge zur Theater-, Film- und Medienwissenschaft 56/1–2, 2011 [2012], p. 7–16, ici p. 7. Sur les références cinématographiques dans la photographie du Bauhaus, voir par exemple Thomas Tode « Schule des Sehens. Über einige interdisziplinäre Aspekte des Films am Bauhaus », dans Maske und Kothurn. Internationale Beiträge zur Theater-, Film- und Medienwissenschaft 56/1–2, 2011 [2012], p. 17–46. Hans Richter, Rhythmus 21, DE 1921/1923, éd. par Stiftung Bauhaus Dessau, 2009. Hans Richter, Rhythmus 23, DE 1923/1925, éd. par Stiftung Bauhaus Dessau, 2009. Viking Eggeling, Symphonie diagonale, DE 1921–1924/25, éd. par Stiftung Bauhaus Dessau, 2009. De nouvelles recherches sur ce film ont été
présentées dans la cadre de l’exposition bauhaus.film.expanded au ZKM Karlsruhe, Peter Weibel et Markus Heltschl, « Symphonie Diagonale Revisited », le 26 avril 2020, URL : https://zkm.de/de/veranstaltung/2020/04/symphonie-diagonale-revisited [dernier accès : 28/09/2020]. Concernant cette projection
voir Tode, « Schule des Sehens », 2012 (note 18), p. 42–43. Klaus Lippert, « Bauhaus und Kinematographie. La Moholy-Nagy (1895-1946), ein Pionier des Films », dans Prisma. Kino- und Fernseh-Almanach 12, 1981, p. 241–254, ici p. 244. 36 Wassily Kandinsky et les images en mouvement
En 1927, répondant à un article du critique Ernst Kàllai portant sur la relation entre peinture et photographie23, Kandinsky élargit ainsi la discussion aux relations entre peinture et film24. Malgré le rythme accéléré des transformations technologiques contemporaines, l’artiste s’interroge sur la pertinence de l’opposition entre peinture et film, entre statique et cinétique. Il évoque en ce sens l’existence d’une dimension temporelle dans la peinture de chevalet, notamment à travers l’expérience dans la durée qu’en a le spectateur. Défendant l'égalité entre la peinture et le cinéma, Kandinsky n’envisage pas que ce dernier en vienne à remplacer la première. Toute partialité serait à ce titre dangereuse, et, selon l’image qu’il emploie, sauter sur une même jambe entraînerait inévitablement la paralysie de l’autre. Dans un second article nommé « UND. Einiges über synthetische Kunst », également paru en 1927, il affirme en outre que les frontières entre les arts du XIXe siècle ont été progressivement abolies depuis, rendant désormais possible l’avènement d’un art synthétique25. Il cite à ce propos les spectacles d’orgues de couleurs [Farbenorgel] qui ont eu lieu en Angleterre, en Allemagne et aux États-Unis. Il mentionne également, pour l’Allemagne, les jeux de lumières colorées sur fond musical [Lichtspiele], ainsi que, pour la France et l’Allemagne, les débuts du cinéma abstrait accompagnés en musique, mais sans citer d’exemples précis26. Dans cet article, Kandinsky apparaît donc en spectateur intéressé et informé des récents développements et des expérimentations cinématographiques, qu’il relie à sa propre pratique artistique en mentionnant dans une note sa pièce de théâtre expérimental Gelber Klang [Sonorité jaun ], publiée pour la première fois en 1912 dans l’Almanach du Cavalier bleu27. La connaissance de Kandinsky des Lichtspiele [jeux de réflexions lumineuses] suggère qu’il a assisté à la projection des Reflektorische Farblichtspiele de Kurt Schwerdtfeger, élève du Bauhaus28. Ces formes géométriques abstraites créées à l’aide de lumières colorées semblent avoir été montrées pour la première fois lors d’une fête privée organisée par Kandinsky en février 192229. Ludwig Hirschfeld-Mack, un autre élève du Bauhaus, en développa le principe 23 24
25 26 27 28 29 Ernst Kàllai, « Malerei und Photographie », dans i10 Internationale Revue 1/4, 1927, p. 148–157. Outre celle de Kandinsky, d’autres réponses de plusieurs artistes et critiques figurent dans : Wassily Kandinsky et al. « Diskussion über Ernst Kallai’s Artikel ‚Malerei und Fotografie‘ », dans i10 Internationale Revue, 1/6, 1927, p. 227–236, ici p. 230–231. Wassily Kandinsky, « UND. Einiges über synthetische Kunst », dans i10 Internationale Revue, 1/1, 1927, p. 4–11, ici p. 7. Ibid., p. 7 avec note 4, p. 10. Wassily Kandinsky, « Der gelbe Klang. Eine Bühnenkomposition », dans Wassily Kandinsky et Franz Marc (éd.), Der Blaue Reiter, Munich, 1912, p. 115–131. Schwerdtfeger explique son approche dans l’article : Kurt Schwerdtfeger, « Reflektorisches Lichtspiel », dans Der Sturm 15/1, 1924, p. 46. Reconstitution : Kurt Schwerdtfeger, Reflektorische Farblichtspiele, DE 1922/1967, éd. par Stiftung Bauhaus Dessau, 2009. Stefan Schwerdtfeger et Michael Stoeber, « Talking Backgrounds », dans Kurt Schwerdtfeger (Bauhaus Weimar). Reflektorische Farblichtspiele (1922/1968), éd. par Red Avocado Film, 2010 et Melissa Venator, « Kurt Schwerdtfegers reflektorische spiele, 1922 », dans bauhaus imaginista. Die globale Rezeption bis heute, éd. par Marion von Osten et Grant Watson, cat. exp. Berlin, Haus der Kulturen der Welt, Bern, Zentrum Paul Klee, Nottingham, Nottingham Contemporary, Zurich 2019, p. 256–259, ici p. 256. 37 Caroline Marié avec ses Farbenlichtspiele à partir de 192330. Ces dernières furent entre autres présentées à la suite d’une conférence de Kandinsky en février 1925 à Leipzig31. Le 4 avril 1928, Kandinsky se rapprocha lui-même de ces expérimentations en mettant en scène les Bilder einer Ausstellung [Tableaux d’une exposition] du compositeur russe Modest Mussorgsky, au Friedrich-Theater de Dessau, à l’invitation de son directeur Georg Hartmann32. Dans l’écriture de cette suite pour piano, Mussorgsky s’était inspiré en 1897 des dessins de voyage de son ami, le peintre et architecte, Viktor Hartmann. Kandinsky retraduira à son tour visuellement l’impression provoquée en lui par l’écoute de cette musique33. L’ensemble composé de seize images essentiellement abstraites faisait usage de la lumière colorée en suivant les écrits théoriques de l’artiste sur le théâtre et la perception des couleurs, lui permettant de réaliser sa vision d’une synthèse scénique34. Par exemple, dans le tableau sept nommé Bydlo, plusieurs formes géométriques traversent la scène de droite à gauche, soit suspendues par des fils de fer, soit déplacées par des employés invisibles, cachés par une paroi noire, comme le note Kandinsky dans le manuscrit de la pièce35. Sur une aquarelle intitulée Tableau VII, Bydlo, il ajouta des indications concernant les couleurs de ces formes et leur éclairage, tout en précisant que la mise en scène de ce tableau n’était possible qu’avec un bon projecteur de lumière, ce qui témoigne de ses exigences techniques36 (fig. 3). Dans un article consacré à sa mise en scène, Kandinsky souligna le rôle de ces différents éléments picturaux employés : les formes elles-mêmes, leurs colorations, celles des projections lumineuses, donnant l’effet de peintures en profondeur, le jeu autonome de la lumière colorée, le 30 31 32 33 34 35 36
Reconstitution : Ludwig Hirschfeld-Mack, Kreuzspiel, DE 1964–1965, éd. par Stiftung Bauhaus Dessau, 2014. Hirschfeld-Mack inclut des recensions critiques de cette manifestation dans sa publication dédiée aux Lichtspiele : Ludwig Hirschfeld-Mack, Farben Licht-Spiele. Wesen Ziele Kritiken, Weimar, 1925 publié dans Kiening/Adolf, 2012 (note 5), p. 127–138 ; voir aussi Peter Stasny, « Die Farbenlichtspiele », dans Ludwig Hirschfeld-Mack. Bauhäusler und Visionär, éd. par Andreas Hapkemeyer et Peter Stasny, cat. exp. Bozen, MUSEION – Museum für Moderne Kunst, Wien, Jüdisches Museum, Francfort-sur-le-Main, Jüd Museum der Stadt Frankfurt am Main, Ostfildern 2000, p. 94–112, ici p. 100. Reconstitution : Wassily Kandinsky, Bilder einer Ausstellung, DE 1984, éd. par Stiftung Bauhaus Dessau, 2014. Wassily Kandinsky, « Modeste Mussorgsky: “Bilder einer Ausstellung” », dans Das Kunstblatt 14, 1930, p. 246. Il s’agit de la seule mise en scène réalisée d’une pièce de théâtre de Kandinsky. Kandinsky : œuvres de Vassily Kandinsky, 1866-1944, éd. par Christian Derouet et Jessica Boissel, cat. exp. Paris, Musée national d’art moderne, Centre Georges Pompidou, Paris 1984, p. 232–233 et p. 308–317, ici p. 232 et Gerhard Köhler, « “Das Bild war in ständiger Bewegung” Zu Kandinskys Bilder einer Ausstellung », dans Erik Stephan (éd.), Punkte und Linie zu Fläche. Kandinsky am Bauhaus, cat. exp. Jena, Kunstsammlung Jena, Jena, 2009, p. 148– 161, ici p. 149. Jessica Boissel, « Mussorgsky: Bilder einer Ausstellung », dans Jessica Boissel (éd.), Wassily Kandinsky. Über das Theater. Du théâtre. O Teatpe, Cologne, 1998, p. 291–313, ici p. 298. Voir aussi Marcel Bongni, Wassily Kandinskys Synthese der Künste. Eine Analyse von « Bilder einer Ausstellung », thèse Zurich, 1998, Zurich 2000, p. 143–152. Wassily Kandinsky, Tableau VII, Bydlo, 1928, encre de chine et aquarelle, 30 x 40 cm, inscrit à la mine de plomb, Centre Pompidou/MNAM-CCI, Paris. Vivian Endicott Barnett, Kandinsky. Werkverzeichnis der Aquarelle, t. 2, 1922-1944, Munich, 1994, no 816, p. 178. 38 Wassily Kandinsky et les images en mouvement 3 Wassily Kandinsky, Tableau VII, Bydlo, 1928, encre de chine et aquarelle, 30 × 40 cm, inscrit à la mine de plomb ; numérotation des pièces et indications en allemand concernant des couleurs. En haut à gauche : « Figuren I, II, III, IV, V, VI müssen mit farbigem Glanzpapier beklebt werden / Figur VII – schwarz-weiss gestrichen / Figur VIII - Silberpapier » En bas à gauche : « Reihenfolge: / Römische Zahlen / Hintergrund schwarz / 1. bei I, II rotes Licht / 2. III stark Rot – stossweise / 3. IV violett - wackelnd / 4. V gelb - stossweise / 5. VI orange / 6. VII blau-rollend / 7. VIII über violett rot – Wellen / (diese Beleuchtung- / sangaben können nur / bei sehr gutem Beleuch- / tungsapparat erreicht / werden) » Et à droite : « Silber / Alles Metallfarben/Bühnenöffnung – 3 × 1,5 Mt (vorne eine / Wand, 1,50 hoch) » Centre Pompidou, Paris, n° inventaire : AM 1981
-65-
126
montage et le démontage des tableaux en accord avec la musique37. L’historien de l’art Ludwig Grote considéra dans un article sur cette pièce que Kandinsky aurait ici dépassé les expérimentations de Moholy-Nagy et Hirschfeld-Mack. Grote décrivit l’effet de cette mise en scène en la rapprochant de la pratique picturale de l’artiste : « Les formes n’apparaissaient que comme des surfaces, la scène semblait complètement irréelle en raison du fond noir et de l’éclairage, comme l’espace dans les peintures de Kandinsky38. » Cette peinture de lumière, à la suite des Lichtspiele du Bauhaus, mettait en jeu la temporalité de 37 38 Kandinsky, 1930 (note 33), p. 246. Ludwig Grote, « Bühnenkompositionen von Kandinsky »,
dans
i 10
Internationale Re
vue
2/13
, 1928, p. 4– 5,
ici p
. 5. 39 Caroline Marié l’expérience picturale. Par cette synthèse des arts, combinant théâtre, lumière, peinture et musique, Kand s’inscrivait dans une émulation directe avec les expérimentations cinématographiques contemporaines présentées au Bauhaus. Wassily Kandinsky dans les films Schaffende Hände [Mains créatrices] de Hans Cürlis
La relation de Kandinsky au cinéma ne saurait cependant être limitée à ses expériences plastiques liées au Bauhaus, au film abstrait et plus généralement à la Lichtkunst [art de la lumière]. En 1926, il eut notamment l’occasion de se trouver cette fois devant une caméra. La série de films Schaffende Hände39, dont les premières prises de vue eurent lieu entre 1922 et 192340, contribua à fonder la réputation internationale de son réalisateur Hans Cürlis, également docteur en histoire de l’art41. Cürlis fonda, le 11 juillet 1919, l’Institut für Kulturforschung, avec lequel il produisit cette série de films jusque dans les années 196042. Successivement, il s’intéressa aux peintres, dont Wassily Kandinsky, puis aux sculpteurs, et enfin aux métiers de l’artisanat et aux techniques artistiques43. À ce titre, Cürlis est considéré aujourd’hui comme un pionnier du Kulturfilm [film culturel]44. Lui-même donnait de ce genre la signification suivante : « Kulturfilm est un terme générique désignant tous les films qui visent à transmettre des connaissances45. » Les séquences montrant Wassily Kandinsky furent donc intégrées à la partie originale des Schaffende Hände dédiée aux peintres, qui fut présentée, en 39 Schaffende Hände est souvent qualifié de « cycle » de films. En raison du matériel hétérogène et des différentes combinaisons des séquences filmiques, Burcu Dogramaci a proposé en 2017 d’utiliser le terme « série », ou encore l’expression « Filmgruppe [groupe de film] » employée par Cürlis lui-même. Burcu Dogramaci, « Künstlerfilme von Hans Cürlis. Von schaffenden Händen und sich erschaffenden Werken », dans Oliver Jahraus (éd.) et. al., Sache/Ding. Eine
ästhetische Leitdifferenz in der Medienkultur der Weimarer Republik, Munich 2017, p. 278–291, ici p. 279. 40 Reiner Ziegler date les premières prises de vue de Schaffende Hände en 1922 suivant la datation rétrospective de Cürlis, Reiner Ziegler, Kunst und Architektur im Kulturfilm 1919-1945, thèse Stuttgart, 2002, Constance, 2003, (Close up Schriften aus dem Haus des Dokumentarfilms 17), p. 47. Hans Cürlis, « Erfahrungen aus der Kunstfilm-Arbeit », dans Deutsche UNESCO-Kommission (éd.), Film im Museum, Cologne, 1967, p. 84–85, ici p. 85. Ulrich Döge estime quant à lui
que la
série débute en
1923, date
mentionnée dans la publication accompagnant le film. Ulrich Döge, Kulturfilm als Aufgabe. Hans Cürlis 1889-1982, Berlin, 2005 (Filmblatt-Schriften, 4), p. 27 et Hans Cürlis, Schaffende Hände I. Die Maler, zu dem Filmwerk «Schaffende Hände » des Instituts für Kulturforschung, Berlin, Berlin, 1926, (Veröffentlichungen des Kunstarchivs 24), p. 12 et 29. 41 Döge, 2005 (note 40), p. 9. 42 Ibid., p. 18–21 et Reiner Ziegler, « Schaffende Hände. Die Kulturfilme von Hans Cürlis », dans Klaus Kreimeier (éd.) et. al., Geschichte des dokumentarischen Films, t. 2, Weimarer Republik 1918-1933, Stuttgart, 2005, p. 219–227, ici p. 219. 43 Döge, 2005 (note 40), p. 81–82 et p. 85. 44 Ibid., p. 13. 45 Hans Cürlis, « Zwei bedeutsame Reden auf dem Werbefilmkongress », dans Film-Kurier 193, 15.08.1929, cité après Döge, 2005 (note 40), p. 13, note 16. 40 Wassily Kandinsky et les images en mouvement cinq actes réunissant une dizaine d'artistes, en 192646. Elles ne figurent cependant pas dans le livre qui accompagna la réalisation de ce premier film47.
Dans cette publication, Cürlis expliquait son approche documentaire, caractérisée par sa focalisation sur la main créatrice, limitant les apparitions des visages des es à de courts plans, afin de mettre en valeur l’exécution manuelle48. Dans l’introduction de son texte, Cürlis s’interrogeait dès lors sur l’apport du médium cinématographique à l’histoire de l’art, et sur sa contribution à une recherche scientifique49. Il expliquait ensuite les avantages de cette approche par ces termes : Il ne s’agissait pas de démontrer « comment une œuvre d’art est créée ». Cela va sans dire que l’acte de création proprement dit ne peut pas être saisi par le film, puisqu’il se situe en dehors du manuel et du visible. Mais ce qui se passe au niveau manuel, ce que je peux voir en suivant la main, « ce que fait la main », la caméra le voit aussi [...]. Le film veut montrer la main comme instrument le plus noble de l’artiste [...]. Il [l’appareil] est complètement objectif et ne connaît pas de fatigue ou de négligence. [...] Le film ne peut être vu qu’une seule fois ; comme le processus lui-même, on peut le voir cent fois et, si on le souhaite, des centaines de fois. Et les événements se déroulent toujours avec une identité absolue, comme la première fois. Ce ne sont pas une ou deux personnes qui voient ce qui se passe, comme dans le meilleur des cas dans l’atelier du peintre. Un nombre illimité de spectateurs peut voir le même extrait de film, aussi souvent qu ́il le souhaite. Et quelle manière de voir! Sans être sous l'influence de l'atelier et du maître, mais dans un gigantesque agrandissement qui ne peut rien cacher. [...] Il [le spectateur] voit alors de près la main en action, dans une intimité que l’artiste ne tolérerait 46 47
49 Hans Cürlis, Schaffende Hände. Die Maler, DE 1926, caméra : Walter Türck, production : Institut für Kulturforschung, 35 mm, muet, 1 711 m.,
autorisation : 01.11.1926. Les prises de vues montrent les artistes suivants : Lovis Corinth, George Grosz, Wassily Kandinsky, Käthe Kollwitz, Max Liebermann, Max Oppenheimer (Mopp), Emil Orlik, Max Pechstein, Max Slevogt, Lesser Ury et Heinrich Zille. Voir Ziegler, 2003 (note 40), p. 47 et Döge, 2005 (note 40), p. 80. Cette absence dans la publication s’explique sans doute par le fait que Kandinsky fut filmé peu avant sa parution. L’existence dans sa bibliothèque d’un exemplaire de l’ouvrage dédié à l’artisanat démontre cependant l’intérêt qu’il portait à cette série de films, Hans Cürlis, Schaffende Hände. Kunsthandwerk. Bronzeguss, Gold- und Silberschmiedearbeiten, Mosaik, Porzellan, aus dem Filmzyklus “Schaffende Hände” des Instituts für Kulturforschung, Berlin, 1928, Centre Pompidou/MNAM-CCI/Bibliothèque Kandinsky, Fonds Vassily Kandinsky, no inventaire : L 137. Dans l’ouvrage de 1926 dédié aux peintres figuraient les artistes suivants : Lovis Corinth, Otto Dix, Dietz Edzard, George Grosz, Käthe Kollwitz, Max Liebermann, Max Oppenheimer (Mopp), Emil Orlik, Max Pechstein, Joachim Ringelnatz, Christian Rohlfs, Matthäus Schiestl, Max Slevogt, Lesser Ury et Heinrich Zille. Cürlis, 1926 (note 40). À ce sujet voir Dogramaci, 2017 (note 39), p. 282. Cür
lis, 1926
(
note 40), p.
3–4
. Sur la réception et l‘utilisation du film en histoire de l’art de 1910 à 1940, voir Barbara Schrödl, « Die Kunstgeschichte und ihre Bildmedien. Der Einsatz von Fotografie und Film zur Repräsentation von Kunst und die Etablierung einer jungen akademischen Disziplin », dans Anja Zimmermann (éd.), Sichtbarkeit und Medium. Austausch, Verknüpfung und Differenz naturwissenschaftlicher und ästhetischer Bildstrategien, Hambourg, 2005, p. 151–168. 41
Caroline Marié pas pendant son travail. Par l’intermédiaire de la caméra, le spectateur devient le témoin d’événements qui lui sont autrement inaccessibles. Cette vérifiabilité sans restriction confère au film les propriétés du matériau scientifique le plus précieux [...]50. Malgré la mise en œuvre par Cürlis de son souhait de vérifiabilité, d’objectivité, d’authenticité et de visionnement répété, il était conscient que les artistes n’étaient pas habitués à être filmés, du risque de les voir prendre des expressions figées et artificielles, nuisant ainsi à l’authenticité souhaitée51. Au final, Cürlis tenait à prévenir le malentendu qui pourrait laisser croire au spectateur que l’œuvre avait été peinte ou dessinée à son intention. Le spectacle de la main devait ainsi garder le sens d’une observation discrète par un spectateur privilégié52. Kandinsky accepta visiblement de participer au projet de Cürlis, donnant ainsi, de façon indirecte, son approbation aux intentions du cinéaste. À la différence de nombreuses images de peintres filmées pendant leur travail par Cürlis, les prises de vue de Kandinsky ne furent pas tournées dans son atelier, ni même chez lui, mais dans la galerie Neumann-Nierendorf de Berlin. Le tournage eut en effet lieu à l’occasion de l’exposition itinérante célébrant le soixantième anniversaire du peintre et qui fit étape à Berlin du 14 novembre au 15 décembre 192653. Durant les préparatifs de cette manifestation, Kandinsky avait annoncé à Will Grohmann dès 1925 qu’il prévoyait de tirer parti de toutes les possibilités offertes par ce jubilé54. Cette intention pourrait expliquer le choix du lieu, qui a pu être également déterminé par des motifs financiers. En effet, Cürlis, en se gardant de tout jugement de valeur, justifia, dans son ouvrage, sa sélection de peintres en invoquant ses restrictions budgétaires, qui le contraignirent à réaliser la plupart des prises de vues à Berlin55. Il semble donc que cette exposition ait représenté une opportunité de part et d’ : Cürlis y trouvant l’occasion d’élargir sa galerie d’artistes, et Kandinsky celle de promouvoir son art de façon exceptionnelle. En raison de sa disponibilité, nous nous référons ici au film documentaire Aus den Ateliers der zwanziger Jahre. Der Filmpionier Hans Cürlis und seine Malerporträts de Josef Kirchmayer, produit en 1989, qui incorpore de nombreuses séquences de Schaffende Hände56. De fait, aucune version originale 50 51
55 56 Cürlis, 1926 (note 40), p. 5–6. Cürlis, 1926, (note 40) p. 12 et Karl Stamm « Der Künstler im Dokumentarfilm. Aspekte der Authentizität », dans Helmut Korte et Johannes Zahlten (éd.), Kunst und Künstler im Film, Hameln 1990 (Art in Science – Science in Art 1), p. 63–68, ici p. 65. Cürlis, 1926 (note 40), p. 11. Georgia Illetschko et Katharina Katz, « Kandinsky Exhibitions », dans Vivien Endicott Barnett, Kandinsky. Werkverzeichnis der Aquarelle, t. 1, 1900-1921, Munich, 1992, p. 493– 525, ici p. 510. Wassily Kandinsky à Will Grohmann, Dessau, 29 septembre 1925, cité après Wörwag, 2015 (note 13), p. 85. Cürlis, 1926 (note 40), p. 9–10. Josef Kirchmayer, Aus den
Ateliers der
zwanziger Jahre. Der
Film
pionier Hans Cürlis und seine Malerporträts, 42 Wassily Kandinsky et les images en mouvement de la série
ne subsiste aujourd’hui. Seuls des fragments sont conservés dans différentes archives cinématographiques, toute reconstitution restant par ailleurs incertaine du fait des nombreux montages successifs que Cürlis luimême produisit au fil des décennies57. Cet état de conservation reflète l’intention de Cürlis de ne pas donner de fin à son œuvre, qu’il considérait comme des archives ouvertes58. Selon lui, le contenu pourrait être prélevé et arrangé par les enseignants, travaillant dans des musées ou des écoles d’art, selon leurs souhaits, à la manière de diapositives. Son projet cinématographique n’avait dès lors pas eu de prétention à exister sous une forme définitive59. Ces explications soulignent également à quel public Cürlis destinait en partie son œuvre : le milieu de l’enseignement – et en particulier celui de l’art et de son histoire. La séquence consacrée par Cürlis à Kandinsky suit un scénario commun aux autres. Dans la version considérée ici, le spectateur voit d’abord la main droite de l’artiste écrivant son nom60. La signature, présentée d’ordinaire à la fin du processus créateur61, introduit ici la séquence à la façon d’un titre et annonce l’identité du peintre qui s’apprête à être montré. La main de Kandinsky entreprend ensuite un dessin abstrait à l’encre, brièvement interrompu par un plan montrant le visage de l’artiste (fig. 4). Le peintre est vêtu d’un costume et d’un nœud papillon ; il baisse les yeux et regarde avec attention son travail, semblant resté immobile durant les quelques secondes de cette prise de vue. La caméra 57 58
4 Anonyme :
Vassily Kandinsky dans son atelier [Filmstill Schaffende Hände de Hans Cürlis], vers 1930
[19
26]
, tirage aux
sels
d’
argent, 3,5 x 4 cm,
ti
rage
moderne après
négatif
original, Centre Pompidou/ MNAM-CCI/Bibliothèque Kandinsky, Fonds Vassily Kandinsky, n° inventaire : 1863
5
Anonyme : Vassily Kandinsky travaillant
à
un dessin à l’encre [Filmstill Schaffende Hände de Hans Cürlis], vers 1930 [1926], tirage aux sels d’argent, 3,5
7,5 cm, tirage moderne après négatif original, Centre Pompidou/MNAM-CCI/Bibliothèque Kandinsky, Fonds Vassily Kandinsky, n° inventaire : 1864 DE 1989, produit par le Hessischer Rundfunk. Reiner Ziegler, 2003 (note 40), p. 47–48, Döge, 2005 (note 40), p. 28 et Dogramaci, 2017 (note 39), p. 279. Cürlis, 1926 (note 40), p. 9. Ibid., p. 8–9.
Dans la version de Kirchmayer qui inclut une séquence retrouvée en 1989, Kandinsky est visible aux minutes suivantes : la signature (30:13 à 30:21) ; la séquence de dessin (30:22 à 34:57), le portrait (30:57 à 31:02) ; la deuxième séquence de dessin (31:02 à 34:10) ; le dessin achevé (34:11 à 34:24), Kirchmayer, 1989 (note 56). Voir à ce sujet Pierre-Henry Frangne (éd.) et. al., Filmer l’acte de création, Rennes, 2009 (Spectaculaire Cinéma). 43 Caroline Marié revient ensuite sur la main de l’artiste pour montrer l’achèvement du dessin (fig. 5). Dans un plan supplémentaire, Kirchmayer ajoute une vue en couleur de l’œuvre achevée. Schaffende Hände montre à plusieurs reprises l’exécution d’esquisses, comme celle dessinée par Kandinsky. Ceci peut s’expliquer, d’une part, en raison de leur rapidité d’exécution, et ainsi du moindre coût de leur enregistrement. D’autre part, Cürlis privilégiait l’esquisse au tableau achevé, considérant la première comme une forme d’expression artistique plus libre62. Le tournage de Schaffende Hände fut donc l’occasion pour Kandinsky de faire une expérience nouvelle et intime avec le médium cinématographique. Quoiqu’introduit au sein même d’un tournage en tant que protagoniste, il ne fût pas libre dans son mode de représentation, mais suivit le protocole établi par Cürlis, tout en choisissant lui-même l’œuvre présentée63. En faisant la promotion de l’art abstrait auprès du grand public, la séquence était aussi la démonstration de sa virtuosité manuelle. N’apercevant que brièvement le visage du peintre, le regard du spectateur était porté bien plus longuement sur les mains au travail, au point que ce cadrage lui faisait prendre la position de la caméra comme l’explique Cürlis64, peut-être même celle de l’artiste en lui donnant le sentiment de participer à la genèse de l’œuvre65. Cependant, Hans Cürlis ne s’adressait avec Schaffende Hände pas seulement à un public éduqué et proche du milieu artistique, mais visait également un public de masse qu’il souhaitait sensibiliser à l’art. Les courts métrages, présentés en introduction des séances de cinéma, lui semblaient à ce titre un moyen privilégié pour atteindre son but66. Dès lors, le cinéma documentaire de Cürlis se place dans une position intermédiaire entre le film expérimental d’avant-garde et l’industrie cinématographique. En 1955, il s’exprima à propos du film sur l’art et des films mettant en scène des œuvres d’art : « Le but devra toujours être de conduire les gens vers l’art. Le film ne doit être qu’un moyen. C’est la différence avec le long métrage, qui devrait être une création artistique indépendante et non un renvoi vers la littérature, le livre ou une pièce de théâtre 67.» Si Kandinsky parvint, par l’intermédiaire du film sur l’art, à s’introduire dans l’écran des salles de cinéma, reste à évoquer sa relation avec les longs métrages mentionnés par Cürlis, ceux produits notamment par Hollywood pour les masses.
67 Cürlis, 1926 (note 40), p. 5. Cürlis précisait dans sa publication que le
x de l’œuvre revenait aux peintres filmés. Cürlis, 1926, (note 40), p. 12. Ibid., p. 6. Voir Barbara Schrödl, « Ein filmischer Atelierbesuch und ein Maler im Filmstudio. Zeitlichkeiten zwischen Produktions–und Rezeptionsprozessen », dans Karin Gludovatz et Martin Peschken (éd.), Momente im Prozess. Zeitlichkeit künstlerischer Produktion, Berlin, 2004, p. 91–100. Ziegler, 2003 (note 40), p. 45–46. Hans Cürlis, « Das Problem der Wiedergabe von Kunstwerken durch den Film », dans Georg Rohde (éd.), Edwin Redslob zum 70. Geburtstag. Eine Festgabe, Berlin, 1955, p. 172–187, ici p. 187. 44 Wassily Kandinsky et les images en mouvement Kandinsky et Hollywood – promouvoir l’art abstrait par le film Hors des frontières allemandes
,
le médium ciné
matographique joua également un rôle, notamment aux États-Unis, dans la promotion de l’œuvre de Kandinsky et dans celle de l’art abstrait en général. Après la fermeture du Bauhaus par le parti national-socialiste en 1933, Kandinsky s’installa en décembre de la même année à Neuilly-sur-Seine, où il y demeurera jusqu’à la fin de sa vie en 1944. Bien qu’il ait plusieurs fois envisagé de voyager ou d’émigrer aux États-Unis, il ne vit jamais de ses propres yeux le nouveau continent 68. Le galeriste berlinois Karl Nierendorf, chez qui Cürlis avait tourné sa séquence, quitta l’Allemagne en 1936 pour s’installer à New York 69. La même année, il relata à Kandinsky l’installation de leur compatriote Oskar Fischinger, pionnier du cinéma abstrait : Au dernier moment, la Paramount l’a [Oskar Fischinger] fait venir à Hollywood dans des conditions favorables. Il a réalisé des films en couleurs dont tout le monde dit : « Ce sont des Kandinsky en mouvement. », même s’il a créé un univers formel complètement différent et très personnel. Toutefois, certaines images de ses films ressemblent à des photographies de vos travaux. [...] Ces films, largement promus par Hollywood, vont vous faire connaître ainsi que l’art abstrait dans les cercles les plus larges, et rendre de précieux services 70!! Depuis le début des années 1920, Fischinger avait expérimenté le cinéma abstrait, et pris connaissance des écrits de Kandinsky71. En 1935, il rencontra un grand succès avec sa Komposition in Blau [Composition en bleu], montré à la Biennale de Venise et au festival du film de Bruxelles72. Grâce à l’intervention du réalisateur allemand Ernst Lubitsch, Fischinger fut embauché, comme mentionné par Nierendorf, par la Paramount en février 1936, et il travailla dans leurs studios d’Hollywood pendant six mois73. Son émigration fut l’occasion pour lui
68 Annegret Hoberg, « Biographie », dans Kandinsky, éd. par Christian Derouet, cat. exp. Munich, Städtische Galerie im Lenbachhaus, Paris, Centre Pompidou, New York, Solomon R. Guggenheim Museum, Paris, 2009, p. 20–46, ici p. 42–46. 69 Anja Walter-Ris, Die Geschichte der Galerie Nierendorf. Kunstleidenschaft im Dienst der Moderne. Berlin/ New York 1920-1995, thèse Berlin, 2000, p. 216, URL: https://refubium.fu-berlin.de/handle/fub188/2107 [dernier accès 28.11.2020]. 70 Karl Nierendorf à Wassily Kandinsky, New York, 19 mai 1936. Centre Pompidou/MNAM-CCI/Bibliothèque Kandinsky, Fonds Vassily Kandinsky, VK 254. 71 Voir William Moritz, « Oskar Fischinger », dans Optische Poesie. Oskar Fischinger – Leben und Werk, éd. par Hilmar Hoffmann, cat. exp. Francfort-sur-le-Main, Deutsches Filmmuseum, Francfort-sur-le-Main, 1993, p. 7–90, ici p. 9 et p. 48 et Est her Leslie, « Oskar Fischinger / Wassily Kandinsky. Where Abstraction and Comics Collide », dans Oskar Fischinger 1900-1967. Experiments in Cinematic Abstraction, éd. par Cindy Keefer et Jaap Guldemond, cat. exp. Amsterdam, EYE Filmmuseum, London, 2012, p. 89–92, ici p. 89. 72 Jeanpaul Goergen, « Oskar Fischinger in Germany 1900 to 1936 », dans cat. exp. Amsterdam, 2012 (note 71), p. 42–49, ici p. 48–49, Moritz, 1993 (note 71), p. 42–43. Oskar Fischinger, Komposition in Blau, DE 1935, éd. par Center for Visual Music, 2017. 73 Moritz, 1993 (note 71), p. 45–46 et p. 50. 45
Caroline Marié d’emporter sur le territoire états-unien des copies de ses films, mais également des tableaux de plusieurs artistes pour le compte du galeriste Karl Nierendorf. Parmi ceux-ci figurait une vingtaine de toiles de Kandinsky74, dont l’œuvre entrait en résonance, aux yeux des contemporains avec les films mêmes de Fischinger. Au-delà du travail d’Oskar Fischinger, que Kandinsky suivait depuis l’Europe75, le monde hollywoodien intéressait l’artiste à plus d’un titre. L’industrie cinématographique, dont il appréciait déjà les produits durant ses moments de distraction, se présentait à lui comme une clientèle potentielle, fascinante en elle-même. La figure centrale dans l’introduction de Kandinsky au sein du monde étincelant d’Hollywood fut Galka Scheyer. Celle-ci était depuis 1924 la représentante aux États-Unis des Blaue Vier, qui réunissait Lyonel Feininger, Alexej von Jawlensky, Paul Klee et Wassily Kandinsky. Dans un contrat conclu le 31 mars 1924, Scheyer s’engageait à promouvoir leurs idées artistiques, notamment par le biais de conférences et d’expositions76. Ayant séjourné à New York puis à San Francisco, elle s’installa en 1929 à Los Angeles77. Durant l’été 1933, elle acheta un terrain sur les Hollywood Hills pour y construire une maison-galerie, conçue par l’architecte Richard Josef Neutra. Ce fut dans ce cadre moderne qu’elle entreprit de présenter les œuvres des Blaue Vier. Sa maison et le personnage de Galka Scheyer devinrent une attraction à Hollywood78. Parmi les célébrités qui furent ses hôtes, citons les actrices et acteurs Marlene Dietrich, Greta Garbo, Billie Burke et Edward G. Robinson, ainsi que la réalisatrice et les réalisateurs Dorothy Arzner, Fritz Lang et Josef von Sternberg79. Ce dernier, également collectionneur, apporta son soutien au groupe des Blaue Vier en parrainant une exposition qui se tint en 1930 à la galerie de Harry Braxton à Los Angeles80. Le rôle de Scheyer ne se limita pas à des réceptions mondaines, puisqu’elle alla jusqu’à transporter les œuvres des quatre artistes dans les locaux des studios 74 75 76 77 78 79 80 Karl Nierendorf à Wassily Kandinsky, 19 mai 1936 (note 70), Moritz, 1993 (note 71), p. 45 et Walter-Ris, 2000 (note 69), p. 216. Voir Wassily Kandinsky à Galka Scheyer, Neuilly-sur-Seine, 23–25 juin 1939, dans Isabel Wünsche (éd.), Galka E. Scheyer und die Blaue Vier.
ninger, Jawlensky, Kandinsky, Paul Klee, Briefwechsel 1924–1945, Wabern, 2006, p. 291. Un exemplaire du contrat conclu le 31 mars 1924 entre Galka Scheyer et les membres du Blaue Vier est conservé dans le Fonds Kandinsky, Centre Pompidou/MNAM-CCI/Bibliothèque Kandinsky, Fonds Vassily Kandinsky, VK 621. Voir Wünsche, 2006 (note 75), concernant ses séjours à New York, p. 61–67, à San Francisco, p. 109–119, puis à Los Angeles, p. 189–196 ainsi que p. 233–241. Ibid., p. 196 et p. 233.
Ibid., p. 233. Karin Zaugg, « Die Blaue Vier – Briefe », dans Die Blaue Vier. Feininger, Jawlensky, Kandinsky, Klee in der Neuen Welt, éd. par Vivien Endicott Barnett et Josef Helferstein, cat. exp. Bern, Kunstmuseum, Düsseldorf, Kunstsammlung Nordrhein-Westfalen, Cologne, 1997, p. 291–321, ici p. 298–299 ainsi que Naomi Sawelson-Gorse, « Kleine Kreise und brüchige Bündnisse: Galka Scheyer und amerikanische Sammler der Blauen Vier », dans Ibid., p. 51–61, ici p. 54–55. 46 Wassily Kandinsky et les images en mouvement de la Warner Bros81. Elle informa Kandinsky également que des réalisateurs des studios Disney s’étaient tout particulièrement intéressés à ses œuvres lors de leur visite à son domicile, et projetaient de faire une exposition de ses tableaux82. Kandinsky ne semble pas s’être opposé à ce type de manifestation hors contexte muséal, et salua explicitement le projet d’une exposition dans les studios de Disney : « Votre relation avec les studios Walt Disney est extrêmement réjouissante. Bravo! [...] Avoir une exposition dans le nouveau studio serait très bien83. » Elle organisa également la location de plusieurs œuvres, dont celles de Kandinsky, par des vedettes comme Marlene Dietrich, avec l’espoir de faire naître en eux la « compréhension » et l’« amour » de l’art abstrait. L’entreprise avait aussi pour but d’encourager la vente des œuvres en incitant d’autres célébrités à s’y intéresser lors de réceptions dans la maison de l’actrice84. Ayant appris que Marlene Dietrich devait se rendre à Paris en 1939, Scheyer lui indiqua l’adresse de Kandinsky, et ce dernier se réjouit de l’éventuelle visite de l’actrice dans son atelier : Ce serait agréable que Marlene Dietrich vienne nous voir. Je n’ai jamais vu une star de près. Et qui sait, peut-être qu’elle sera infectée [par le goût de l’art de Kandinsky], c’est-à-dire que la contagion qu’elle a connue avec vous sera amplifiée. J’ai moi-même l’impression d’être une star de cinéma, faisant des plans perfides pour tendre une embuscade à quelqu’un. Sternberg est aussi censé être ici, comme certaines autres stars d’Hollywood. En parlant de stars, la m erveilleuse petite Sh. Temple [l’actrice Shirley Temple] ne devrait-elle pas venir ici aussi? J’aimerais la voir de près85. Fasciné par l’arrivée prochaine à Paris des célébrités d’Hollywood, Kandinsky nourrissait ainsi l’espoir qu’en tant que vedette des beaux-arts, il aurait l’occasion de les approcher et de les voir de près. Les différents projets de Galka Scheyer pour le monde du cinéma hollywoodien sont évoqués dans les lettres collectives et individuelles qu’elle échangeait avec les artistes. Dans cette correspondance, Kandinsky finit cependant par afficher sa déception face aux retombées limitées de l’activité de Scheyer : « Ces gens du cinéma tels que Fritz Lang [sic], [Josef] v. Sternberg etc., sont apparemment des hommes très platoniques – du moins en ce qui concerne ma peinture – de l’amour sans autres conséquences86. » En effet, les efforts de Scheyer 81 82 83 84 85 86 Wünsche, 2006 (note 75), p. 15. Galka Scheyer
, lettre collective,
Hollywood
, 11 juin 1939, cité
après Wünsche,
2006
(note 75),
p.
287–
288. Wassily Kandinsky à Galka Scheyer, Neuilly-sur-Seine, 23–25 juin 1939, cité après Wünsche, 2006 (note 75), p. 291. Galka Scheyer, lettre collective, Hollywood, 11 juin 1939, cité après Wünsche, 2006 (note 75), p. 283–284. Wassily Kandinsky à Galka Scheyer, Neuilly-sur-Seine, 23–25 juin 1939, cité après Wünsche, 2006 (note 75), p. 290. Wassily Kandinsky à Galka Scheyer, Neuilly-sur-Seine, 19 octobre 1937, cité après Deutsches Kunstarchiv, Nuremberg, Fonds Klaus Lankheit, NL Lankheit, Klaus, 48. Caroline Marié ne se traduisirent pas, comme escompté, par des ventes substantielles, que le peintre espérait au vu de sa situation financière à Paris. Afin d’améliorer ses résultats, Galka Scheyer imagina en 1936 de louer des œuvres aux studios, pour qu’elles figurassent dans les décors de leurs films87. Ce type de transaction permettrait selon elle de toucher environ dix pour cent de la valeur de l’œuvre louée en fonction de la durée du prêt. Lyonel Feininger rejeta catégoriquement cette proposition88. Kandinsky se montra au contraire réceptif à l’idée, tout en demandant à Scheyer de lui indiquer les titres des films dans lesquels ses œuvres apparaîtraient, afin qu’il pût les voir en France89. Cette réponse équivoque laisse un doute quant à savoir comment Kandinsky tenait à contrôler l’exposition de ses tableaux, dans la mesure où il n’en serait informé qu’après coup. Se manifestait peut-être également ici le désir d’en apprécier le résultat et de pouvoir contempler son œuvre sur grand écran. Il semble que le souhait de Kandinsky d’être informé et de pouvoir vérifier le contexte dans lequel ses tableaux étaient montrés se justifia par une découverte qu’il fit quelques années après la proposition de son intermédiaire américaine. Le 24 juin 1939, Kandinsky assista à une projection de Marry the Girl, réalisé en 1937 par William C. McGann90. Diffusé en France depuis 1938, le film fut froidement reçu par la critique française91. Alors que son propos se moquait de l’art abstrait, Kandinsky crut apercevoir à l’écran son propre tableau Blauer Kreis [Cercle bleu] de 1922, à cette époque dans la collection de Katherine S. Dreier à New York92. Kandinsky exhorta Galka Scheyer à contacter son avocat afin de vérifier les faits et d’envisager des poursuites contre une telle diffamation de son art, considérant que « 1. un tableau ne devrait pas être montré au cinéma sans l’autorisation de l’artiste, 2. encore moins moqué93 ». La présence d’une copie du Cercle bleu dans le film Marry the Girl a été confirmée par la chercheuse américaine Peg Weiss, dans un courrier des lecteurs publié dans le New York Times en juin 199394. La correspondance entre Kandinsky et Scheyer atteste ainsi du grand intérêt du peintre pour le monde hollywoodien, tout en témoignant de sa prudence face à ce territoire éloigné qui nourrissait, à son image, plus de rêves que de 87 88 89 Galka Scheyer, lettre collective, Hollywood, 19 mars 1936, cité après Wünsche, 2006 (note 75), p. 262. Lyonel Feininger
à Galka Scheyer, Berlin
,
2 janvier 1936, cité après Zaugg, 1997 (note 80), p.
312. Wassily Kand
insky
à Galka Scheyer, sans lieu, 29 mai 1936, cité après
Deutsch
es Kunst
archiv, Nuremberg, Fonds Klaus Lankheit, NL Lankheit, Klaus,
48. 90 William C. McGann, Marry the Girl, USA 1937, AFI catalog, 1931–1940. 91 Voir par exemple Jean Ribes, « Mariez-vous », dans Cinémonde 508, 14 juillet 1938, p. 607. 92 Wassily Kandinsky, Blauer Kreis [Cercle Bleu], 1922, huile sur toile, 110 x 100 cm, signé avec monogramme et daté, Solomon R. Guggenheim Museum, New York. Hans Konrad Roethel et Jean K. Benjamin, Kandinsky. Werkverzeichnis der Ölgemälde, vol. II, 1916–1944, Munich, 1984, no 683, p. 638. 93 Wassily Kandinsky à Galka Scheyer, Neuilly-sur-Seine, 23–25 juin 1939, cité après Wünsche, 2006 (note 75), p. 293–294. 94 Peg Weiss, « Imitation Kandinskys; A Tainted ‘‘Blue Circle’’ », dans The New York Times, 4 juillet 1993, p. 2.
48
Wassily Kandinsky et
les
images
en mouvement 6
Capture d'écran Venus vor Gericht, 1941, à gauche Bild mit zwei roten Flecken [Tableau avec deux taches rouges] de Wassily Kandinsky, 1916, huile sur toile, 78 x 100 cm, lieu actuel inconnu.
Avec l'aimable autorisation de la Friedrich-Wilhelm-Murnau-Stiftung, Wiesbaden réalisations concrètes.
Tout en
fa
isant
de la salle de cinéma
un lieu de distraction, voire peut-être d’inspiration, Wassily Kandinsky semble avoir conservé une certaine distance vis-à-vis du médium, tant dans ses réalisations avant-gardistes, que dans ses productions pour le grand public où il condamnait même certaines productions comme Marry the Girl en raison de leur diffamation moqueuse de l’art abstrait. Sa participation à l’aventure du médium cinématographie dépasse cependant le film même pour envisager le monde qui l’entoure, celui d’Hollywood, face auquel il éprouve une curiosité, une fascination et finalement une certaine désillusion. À cet égard, la cinéphilie de Kandinsky, loin de se réduire à celle d’un spectateur passif, l’amène à interagir, en tant que cél ité artistique, à différents registres et en différents lieux de la production cinématographique.
| 26,208
|
02/hal.archives-ouvertes.fr-tel-01699110-document.txt_4
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 8,947
| 13,460
|
L'interaction des acteurs et leur proximité renforceraient en outre leur capacité à lutter contre les incertitudes et expliquerait pourquoi la diffusion de technologies est plus rapide dans certains espaces (Ibid.). L'importance des dynamiques internes explique que pour ces auteurs, « le développement ne peut se décréter du dehors » (Aydalot, 1985 : 146). Le développement local viable, inspiré du développement endogène, repose lui sur une maîtrise locale des orientations du développement et le devenir souhaité par la communauté (Gagnon, 1994).
Une maîtrise locale des orientations du développement
Cette maîtrise implique non seulement une rupture avec des formes de développement fonctionnaliste imposées de manière top-down, mais aussi une participation active des populations locales. La communauté d'intérêt ou à base géographique doit prendre le contrôle de son propre développement de manière démocratique (Ibid.). Certains parlent de développement autocentré (Amin, 1978) ou intégré (Aydalot, 1985) et appellent à prendre le contrôle local de la vie économique en privilégiant un développement multidimensionnel (aspects sociaux, culturels, techniques, agricoles, et industriels) plutôt que des spécialisations pointues. Ils préfèrent des « productions locales seules capables de bloquer le processus qui mène à la division internationale du travail » (Aydalot, 1985 : 147). Ils préconisent donc d'éviter d'exporter des produits bruts et de valoriser les différences de mode de vie. Enfin, ils appellent à donner la priorité aux petites entreprises et petites communautés et à refuser les grandes unités pour « éviter que le processus de décisions ne soient confisqués » (Ibid.). 70 L'ensemble de ces travaux, dont la discussion ci-dessus, est loin d'être exhaustive, montre un changement de paradigme dans les sciences du développement régional, et la suite du territoire vers l'apparition du concept de développement territorial qui émergea à la fin des années 1990. 3.2. Le développement territorial
Dans cette partie, les travaux fondateurs du paradigme de développement territorial sont rappelés. Dans un deuxième temps, les deux grands courants de travaux en développement territorial utilisés dans l'analyse du tourisme seront présentés. Le premier courant, avec la notion de systèmes touristiques locaux, se focalise sur les conditions qui président à la spécificité de la production économique. Le second considère que le développement des territoires est lié à la consommation des populations présentes, notamment les touristes. Dans ce courant, la théorie de la base revisitée, que nous expliquerons dans le point 3.2.2., positionne le tourisme comme l'un des ressorts de développement. Le paradigme de développement territorial s'inscrit dans une tradition d'études en développement local et endogène, et ne repose sur aucune théorie ou doctrine fortement stabilisée (Jean, 2008). Toutefois, Bruno Jean liste un certain nombre de modèles et d'approches : [] la théorie de la base, qui mise sur le rôle structurant des débouchés extérieurs, la théorie des pôles de croissance (et maintenant des pôles de compétitivité), qui mise sur l'effet d'entrainement des villes, la théorie du commerce international, qui postule la spécialisation distinctive régionale, la théorie de l'échange inégal, qui tente d'expliquer les disparités de développement par le mode d'insertion dans l'économie mondiale, les théories du développement endogène (local), qui postulent la capacité des acteurs locaux à induire des dynamiques de développement plus autocentré, la théorie des milieux innovateurs, des SPL (Systèmes productifs locaux), qui met en valeur les capacités innovatrices des milieux et leur rôle dans la structuration des économies régionales. Enfin, les nouvelles théories du développement territorial mettent en valeur le rôle actif des territoires, eux-mêmes représentés non comme des supports de Le développement territorial (DT) constitue un corpus théorique en construction avec des apports nouveaux qui affinent ou remettent en question les analyses antérieures en « dépassant le dogme de l'espace homogène » (Courlet et Pecqueur, 2013 : 45). À partir des années 1970, l'espace est considéré comme un produit social (Lefebvre, 1974), et de nombreux chercheurs utilisent le terme territoire pour désigner l'espace ainsi défini. Cette notion insiste sur le processus d'appropriation par les acteurs qui créent le territoire. Celui-ci est donc vu comme un espace approprié par les acteurs et qui présente donc de facto des particularités et des spécificités. Il est perçu comme un espace dont l'enracinement historique et l'identité créent une spécificité qui peut constituer une ressource mobilisable par les acteurs. L'approche territoriale reconnaît le territoire comme « [un système complexe dont] « les déterminants [] ne sont pas dus aux propriétés individuelles de chacun de ses éléments hétérogènes mais de la dynamique de leurs interactions. » (Courlet et Pecqueur, 2013 : 41). Le territoire se dématérialise et devient un construit social. Le DT prend acte de l'ancrage des entreprises et des activités socioéconomiques dans un territoire, inscrites dans un construit social (Ibid.). Il est possible de trouver une certaine proximité avec le concept d'enracinement (embeddedness) de l'économie dans le contexte social et culturel popularisé par Polanyi (1983) et repris par de nombreux théoriciens de la socio-économie et de l'économie sociale et solidaire (Lévesque, 2008). Celui-ci remet en cause le sophisme économiciste reposant sur la confusion entre économie et économie de marché, entre économie substantive et économie formelle. En s'appuyant sur les travaux de Thurnwald et Malinowski (Polanyi, 1983 : 369-376), il met en avant les formes de circulation des biens et des services dans une économie substantive institutionnalisée. Il utilise le concept d'encastrement (embeddedness) pour décrire les formes d'inscription de l'économie dans le contexte social et culturel. Il montre, en outre, que dans l'histoire, les échanges n'ont pas pour objectif seulement une accumulation de la richesse, mais des objectifs avant tout sociaux (reconnaissance sociale, statut social). Dans ce courant, l'analyse économique ne peut donc pas être pertinente si le construit social et culturel, dans lequel les activités économiques sont enracinées, est laissé de côté. Le DT considère que l'analyse économique ne peut être réduite à la combinaison de dimensions techniques telles que les économies d'échelles, les coûts de transports et les économies d'agglomération. Le développement territorial ambitionne de ne pas négliger ce qui n'est pas formalisable 72 mathématiquement et qui pourtant conditionne et influence le développement à savoir le construit sociohistorique dont les structures institutionnelles, sociales et culturelles. Le DT positionne 1) le territoire comme « facteur essentiel de croissance et développement » (Courlet et Pecqueur, 2013) : Les chercheurs de ce courant tentent de fonder le « territoire » comme une catégorie d'analyse économique, et estiment nécessaire d'intégrer une fine connaissance des phénomènes d'organisation industrielle, les questionnements d'ordre socio-institutionnel, entre autres, dans leur raisonnement. Il s'agit de dépasser une analyse qui ne fait de l'espace qu'un facteur supplémentaire lié aux dispositifs spatiaux sans finalement reconnaître l'existence même des territoires. (Ibid.) 2) Il considère les acteurs comme étant capables d'agir sur ce territoire. Les relations dynamiques entre les acteurs dans des territoires sont perçues comme des espaces de proximité lesquels influent les trajectoires territoriales. Plusieurs types de proximité sont distingués. La proximité géographique correspond à la localisation des agents (au sens de présence physique dans un même territoire, il serait d'ailleurs plus opportun de parler de proximité spatiale). La proximité organisée « traduit leurs positionnements respectifs en termes de potentiel de coordination » (Pecqueur et Zimmerman, 2004). La proximité organisée se manifesterait sous deux formes : proximité institutionnelle et proximité organisationnelle. La proximité organisationnelle regroupe les modalités de coordination, les conventions d'identité et de participation, les apprentissages et l'accumulation de connaissances dans un domaine. La proximité institutionnelle s'entend par les modalités de régulation, les réglementations et les normes partagées. Ces trois formes de proximité permettraient de catégoriser différents types de développement territorial : Ces trois formes de proximité fournissent les éléments pour caractériser trois types de développement territorial, le territoire d'agglomération (proximité géographique : accumulation et juxtaposition d'activités économiques), le territoire de spécialisation (proximité géographique et proximité organisationnelle : accumulation des connaissances dans un domaine particulier) et territoire de spécification (proximité géographique, proximité organisationnelle et proximité institutionnelle qui donnent au territoire une capacité créatrice lui permettant de produire des ressources spécifiques et d'attacher en quelque sorte les entreprises au territoire) (Pecqueur, 2000 : 99; Dupuy, Gilly et Lung, 2007; Zimmermann, 2005). (Lévesque, 2007) Les premiers trav significatifs furent ceux de Bagnasco (1977, dans Benko et Lipietz, 1992) sur la troisième Italie et ses curieux systèmes productifs. Beccatini (1979, Ibid.) remarqua que ces systèmes productifs « mélange de concurrence-émulation-coopération » (Ibid. : 25) 73 présentaient des proximités avec le concept marshallien de district industriel qui mettait en évidence des externalités positives (l'atmosphère industrielle) grâce à la proximité des structures productives. Piore et Sabel (1984, Ibid.) avancèrent, dans une approche régulationniste, que ces systèmes flexibles allaient succéder, dans une tendance générale, au système fordiste : ils annonçaient l'émergence d'un système postfordiste. 3.2.1. L'approche des systèmes touristiques locaux
Cette première approche est centrée sur les conditions qui président à la production spécifique des territoires dans le cadre du développement du secteur touristique. Elle se situe dans la filiation des travaux sur les systèmes productifs locaux (SPL) lesquels se focalisent sur 1) des formes collectives de production qui reposent 2) sur une gouvernance territoriale. Les systèmes touristiques locaux : une forme collective de production Les travaux sur les SPL ont conduit à élaborer la notion de systèmes touristiques locaux (STL) où, le tourisme peut être vu « comme un catalyseur de la révélation des ressources territoriales » (François, 2008 : 143). La mise en tourisme d'un territoire reposerait avant tout sur la « capacité des acteurs à construire une forme collective de production » (Ibid.). L'approche des STL a été notamment employée sur les stations de montagne en France (Perret, 1992 ; Marcelpoil et François, 2008) et dans l'analyse du tourisme rural dans les Suds (RequierDesjardins, 2010). L'approche des milieux innovateurs a été moins utilisée dans le tourisme que les STL. Néanmoins, on peut citer François et Marcelpoil (2012) qui se sont intéressés à la constitution d'un milieu innovateur dans le domaine du tourisme d'hiver dans la vallée de la Tarentaise. L'ensemble de ces travaux montre que les dynamiques territoriales permettent d'introduire des dimensions humaine et immatérielle dans la mesure où l'activité touristique et son territoire d'accueil, deviennent même une condition sine qua non de la mise en tourisme des territoires. Les modalités de coordination des acteurs convoquent la notion de gouvernance territoriale. La gouvernance territoriale au coeur des systèmes touristiques locaux
La gouvernance est un vieux terme francophone né au XIIème siècle (Gaudin, 2002). Il ressurgit chez les économistes anglophones au XXe siècle à travers la notion de corporate governance visant à davantage d'efficacité des firmes (Leloup et coll., 2005). Au-delà des 75 notions d'efficacité et d'efficience de l'action publique et privée qui prévalent dans les premiers travaux, les différentes approches de la gouvernance, sont souvent floues et polysémiques (Gaudin, 2002 ; Moreau Defarges, 2003 ; Pasquier et coll. 2007). Elles ont en commun le constat d'une modification des processus de prise de décision de l'action publique et les mises en oeuvre des politiques publiques. Cette modification se caractérise par : 1) un élargissement du nombre de parties prenantes dans les processus de décision, 2) une interdépendance des acteurs et organisations tant publics que privés 3) une imbrication des différents niveaux scalaires de pouvoir (infranational, mais aussi transnational, voire supranational). Nous ne pouvons ici aborder l'ensemble des débats suscités par le caractère polysémique de la gouvernance, ce qui en soi constituerait une revue de littérature. Cependant, elle est en lien avec notre problématique qui implique les rôle et compétences des acteurs territoriaux. Dans cette perspective, nous retenons la conception de la gouvernance territoriale de Coissard et Pecqueur, exprimée au colloque de l'Association de sciences régionales en langue française (ASRDLF) de 2007 : La gouvernance territoriale ou locale est un phénomène complexe porteur de stabilité (compromis et négociation) et d'instabilité (divergence et conflit) au sein duquel des acteurs hétérogènes doivent se mobiliser autour d'un objectif commun. En d'autres termes, elle sous-tend que l'institution publique n'a plus le monopole de l'organisation territoriale, au contraire, le système de décisions comprend la participation d'acteurs aux intérêts différents. (Coissard et Pecqueur, 2007) La gouvernance territoriale viserait en outre « la mise en oeuvre de nouvelles règles et valeurs de l'action politique dans les « sociétés locales » dont le mode de « gouvernementalité » serait fondé sur l'exercice du droit des individus et des associations aux affaires locales » (Eme, 2005 : 42). De manière synthétique, l'utilisation de la notion de gouvernance mobilise quatre points fondamentaux dans l'analyse des systèmes touristiques locaux, selon Gerbaux et coll. (2004 : 78-79) : 1- la pluralité des acteurs : les travaux sur les systèmes touristiques locaux montrent que les destinations touristiques présentent un système d'acteurs plus ou moins complexe suivant les destinations. Il existerait une pluralité d'acteurs publics ou privés qui participent à la mise en tourisme. Ces groupes d'acteurs constituent des agrégats sociaux, de taille variable, qui défendent des intérêts communs. Ces acteurs peuvent être liés entre eux de manière informelle 76 ou formelle et constituent des groupes stratégiques. Suivant les situations, un individu peut être membre d'un ou plusieurs groupes stratégiques voire en changer. 2- les logiques d'actions des groupes stratégiques et leur confrontation sont centrales pour définir ces derniers. Elles permettent en outre de comprendre les interactions entre les différents types d'acteurs. 3- les modes de coordination entre les acteurs ou ensembles d'acteurs : Des relations se tissent entre les acteurs ou les groupes d'acteurs, elles peuvent être formalisées ou informelles. Les définitions de la notion de gouvernance montrent que ces modes de coordination peuvent être des compromis et de la négociation, mais aussi des divergences et des conflits. Les approches des systèmes d'acteurs invitent à ne pas négliger les relations de pouvoir, tensions et rapports de force entre groupes stratégiques. Les travaux sur les STL (Gerbaux et coll., 2004) mettent en exergue des relations asymétriques entre eux qui s'expliquent par la nature très différente des acteurs en présence. 4- La construction d'une dynamique collective : la notion de système touristique local montre qu'une destination touristique est un système fonctionnel animé par un ensemble d'acteurs ou de groupes d'acteurs qui se mobilisent autour d'un objectif commun : la mise en tourisme du territoire. L'articulation des intérêt des différents acteurs ou groupe d'acteurs en vue d'un intérêt collectif est au coeur de la notion de gouvernance. Il s'agit ici d'identifier une sorte d'acteur collectif qui orientera par les choix politiques, le développement territorial et sa finalité. L'intérêt de ces approches est de mettre en exergue les conditions socioéconomiques du développement et en particulier les relations entre acteurs, soit le capital social (Putnam, 1993). Ces modèles sont une avancée significative par rapport au modèle néoclassique qui prend en compte la logique de l'agence économique rationnelle. Le deuxième grand courant de travaux en développement territorial dans le champ du tourisme montre que le territoire n'est pas seulement un facteur de production mais un cadre de vie de la population, y compris de populations exogènes, qui contribue à ce titre au développement socioéconomique du territoire. 3.2.2. La théorie de la base revisitée
La théorie de la base (cf. 3.1.1.) fut remobilisée par Laurent Loeiz au milieu des années 1990 sur des données de populations qui mirent en exergue le rôle de la consommation de la population présente dans les territoires. Davezies (2009) revient aux fondamentaux de la théorie de la base économique (cf. 3.1.1.) en se focalisant sur les revenus, mais élargit sa définition en intégrant tous les éléments qui font entrer du revenu dans le territoire, il distingue ainsi quatre types de revenus basiques : 1- la base productive privée qui correspond aux revenus tirés de l'exportation des biens et services 2- la base publique qui est définie par les revenus des fonctionnaires versés par un agent supra-territorial, en général l'État 3- la base sociale qui est composée des revenus liés aux transferts sociaux 4- et enfin la base résidentielle, c'est-à-dire l'ensemble des « revenus extérieurs captés grâce à la résidence de certains agents, à savoir les retraités, les migrants alternants, les touristes ». (Ibid : 67) Les travaux menés par le laboratoire l'OEIL, dont Davezies et Talandier sont les auteurs les plus prolixes, remettent en question la focalisation de la recherche sur la base productive. Celle-ci ne représenterait qu'un quart des revenus moyens des aires urbaines en France, tandis que la base résidentielle près de 50%, le dernier quart étant représenté par la base publique et sociale45. 45 Les calculs réalisés à L'OEil sur l'année 2005/2006 montrent que ces revenus basiques se répartissent à l'échelle des zones d'emplois entre : – base productive (17 % moyenne arithmétique des ZE et 22 % en moyenne pondérée) ; – base résidentielle (53 % moyenne arithmétique des ZE et 45 % en moyenne pondérée) ; – base publique (8 % moyenne arithmétique des ZE et 10 % en moyenne pondérée) ; – base sociale et sanitaire (22 % moyenne arithmétique des ZE et 23 % en moyenne pondérée) (Ibid.). Cette dimension inattendue de la base résidentielle a donné en France, le nom d'économie résidentielle ou présentielle 46. Ces résultats relativisent le poids de la base productrice et montrent que le moteur principal de l'économie locale n'est pas toujours productif mais peut être résidentiel et en particulier touristique. Certains auteurs (Vollet, 2007 ; Davezies, 2009) utilisent le terme de « théorie de la base revisitée » qui sous-entend à la fois le fait de se concentrer sur l'analyse des revenus et le fait d'« intégrer les ressorts non-productifs du développement ». Vollet constate que « l'application de la théorie de la base économique sur un certain nombre d'espaces régionaux renouvelle sensiblement l'analyse des dynamiques territoriales à l'oeuvre » et relève « des zones où les bases non traditionnelles deviennent un élément moteur incontournable des économies régionales » (2007 : 107). Dans le même article, après avoir montré l'intérêt de la théorie de la base revisitée, il note « l'intégration » de la théorie de la base par différents courants, y compris régulationnistes, « intégration des modèles de la base qui témoigne de leur intérêt pour rendre compte de la réalité » (Ibid : 96), et qui complète les modèles d'économie géographique en expliquant « le relatif maintien de l'industrie rurale (et donc du niveau du multiplicateur) et de certaines initiatives locales (rôle du tiers secteur) pour les théories du développement local. » (Ibid : 96). La théorie de la base revisitée fait apparaître un rôle fondamental des revenus du tourisme comme moteur de développement. En conséquence de quoi, la théorie de la base revisitée est utile pour appréhender les revenus du tourisme qui viennent irriguer un territoire. Il est possible en outre de mesurer les fuites touristiques en évaluant la propension à consommer localement. La théorie de la base revisitée postule que le tourisme est un ressort non-productif du développement des territoires, lequel se traduirait par un mécanisme de captation de revenus et de peuplement y compris dans les territoires ruraux dont isolés (Talandier, 2008). Cela participerait à un rééquilibrage des disparités territoriales. Il parait donc intéressant d'observer ces mécanismes dans le cas du tourisme coopératif. Cette approche, permet d'estimer la concentration du tourisme coopératif dans certains territoires. 46 La définition de l'économie résidentielle de Davezies est différente de celle retenue par l'institut national de la statistique Français (INSEE) qui désigne ce que Davezies appelle l'économie domestique, c'est-à-dire la valorisation locale de ces revenus basiques (secteurs locaux de biens et services répondant à la demande locale). 79 Cela étant, se cantonner à cette approche présente des limites dans le cadre d'une recherche exploratoire. Outre les limites d'ordre méthodologique, telles que les hypothèses restrictives (cf. annexe I), cette approche pourrait négliger les spécificités du tourisme coopératif qui se situe dans le champ de l'économie sociale. De nombreux travaux en économie sociale et solidaire, dans le sillage de Polanyi, invitent à dépasser les analyses de l'économie formelle, à s'intéresser à l'économie substantive et à appréhender la pluralité consubstantielle de l'économie. Ces approches présentent en outre la limite de négliger la question des territoires en difficulté. Au Québec, le paradigme de développement territorial en construction apparaît plus transversal et plus englobant. L'influence de l'économie sociale et solidaire dans le changement de paradigme de développement semble prégnante, comme cela sera montré au point suivant. 3.3. Une approche québécoise de développement territorial avec l'économie sociale comme pierre d'assise
Cette partie s'attache à présenter la construction d'un paradigme de développement territorial spécifique au Québec. Il sera montré que l'économie sociale constitue une pierre d'assise de l'approche québécoise du développement territorial. Nous nous attarderons donc sur l'économie sociale, champ dans lequel les coopératives touristiques se situent. Nous verrons que l'une des caractéristiques du paradigme québécois de développement territorial est la place fondamentale prise par l'économie sociale et le développement communautaire. L'économie sociale a pris une place importante dans les initiatives de développement local au Québec : « L'économie sociale s'impose d'emblée parmi les concepts transversaux liant l'économie et le social » (Tremblay, 2014 : 159). Elle est considérée comme l'un des trois types d'économie qui participe à la production économique avec l'économie publique et privée. L'économie sociale et solidaire au Québec tient une place importante depuis plus de cent cinquante ans.
3.3.1. Une longue tradition d'économie sociale au Québec
Les premières associations et sociétés de secours mutuel47 ont émergé d'abord en milieu urbain au début du XIXe siècle et leur développement a été continu à partir de la seconde moitié du XIXe siècle alors que le capitalisme industriel s'est imposé. Cette forme de mutualité « pure » constitue, pour certains auteurs (Lévesque, 2007, Laville, 2011), l'ancêtre de l'économie solidaire. Dès la fin du XIXe siècle, ces associations vont péricliter par manque de reconnaissance de l'État, et suite aux pressions de l'église 48 (Lévesque, 2007). L'associationnisme ouvrier fut également marginalisé par le développement des coopératives de consommateurs (Draperi, 2012). Cela étant, la tradition sociale-chrétienne, qui « prône à des degrés divers le corporatisme social, la collaboration entre patron et travailleurs (patronage) et la doctrine sociale de l'Église» (D'Amours, 2006 : 60), influença l'émergence des coopératives agricoles à la fin du XIXe siècle (Lévesque, 2007) ainsi que les premières coopératives financières : Alphonse Desjardins, le fondateur des caisses populaires, sera par exemple membre de la Société canadienne d'économie sociale de Montréal, fondée en 1888 pour diffuser la pensée de Frédéric Le Play 49. Desjardins puise aussi son inspiration dans la doctrine sociale de l'église, et en particulier dans l'encyclique Rerum Novarum (Malo, 1991) (D'Amours, 2006 : 61). La crise économique des années 1930 eut pour conséquence un important développement du mouvement coopératif encouragé par les élites locales et l'Église catholique en particulier dans le secteur des consommations, des pêches et de la Forêt. Le mouvement coopératif québécois à cette période fut contemporain de la montée d'un modèle corporatiste qui repose sur la doctrine sociale de l'Église, un « modèle défensif, culturel et tendanciellement totalitaire comme l'a révélé le duplessisme » (Lévesque et Mendell, 1999 : 9). 47 La première mutuelle est créée en 1789 : la Société Bienveillante du Québec. L'église menaça d'excommunier les individus engagés dans les organisations les plus radicales (Lévesque, 2007). 49 Fréderic Le Play, acteur français de la contre-révolution, représente l'école réformiste (conservatrice) de l'économie sociale. Il initie une approche académique sociologique basée sur des monographies de familles ouvrières. Le Play se fera le promoteur de l'économie sociale, notamment des initiatives relevant du patronage (Desroche, 1983 : 81). Même si la doctrine leplaysienne est positiviste et non d'inspiration théologique, il influencera les théoriciens du catholicisme social. (Ibid.) 48 Dans la décennie suivante, le secteur scolaire, l'habitation et l'hydroélectricité ont été investis par le mouvement qui plafonna à partir des années 1950 (D'Amours, 2006). Le rôle de l'Église au Québec est resté prépondérant jusqu'à la Révolution tranquille, y compris dans le secteur du tourisme social (Gagnon, 2003). À partir de 1960, l'appareil public québécois, animé par un courant d'affirmation nationale, devint moteur dans une foule de sphères d'activités sociales et économiques notamment en remplacement des institutions religieuses dans le domaine de la santé et de l'éducation. L'affirmation de l'État aura aussi pour conséquence une certaine éclipse du mouvement coopératif après la nationalisation de certains secteurs comme l'hydroélectricité. Cette éclipse du mouvement coopératif, par la nationalisation d'actifs, sera suivie d'un regain de l'économie sociale à partir des années 1970. Une nouvelle économie sociale portée par les mouvements populaires et communautaires, plus ancrée aux territoires, apparaît.
3.3.2. nouveau militantisme économique urbain et rural
La première période des mouvements populaires et communautaires est le théâtre du développement des comités de citoyens « qui apparaissent à partir des années 1960 pour pallier l'insuffisance des services publics des grandes villes québécoises » (D'Amours, 2006 : 72). Plus tard, en zone rurale, les réactions aux projets de fermeture de villages par le Bureau d'Aménagement de l'Est du Québec (BAEQ), ont abouti à la naissance de coopératives de développement qui proposèrent des politiques de développement basées sur des initiatives locales pour maintenir les villages. Ces comités ou coopératives, ont pris en charge des problématiques de développement et d'aménagement du territoire. Ils ont fait l'objet de nombreux travaux de chercheurs sur le développement local et notamment du Groupe de recherche interdisciplinaire sur le développement régional de l'Est du Québec (GRIDEQ) dans l'Est du Québec (Fournis, 2012a ; Polèse, 2012). 3.3.3. Le développement communautaire
A partir des années 1980, les groupes populaires deviennent communautaires et se font les porte-paroles de tous les groupes marginalisés insistant sur les problèmes sociaux51. Pendant cette période, de plus en plus d'initiatives combinent les objectifs économiques et sociaux à travers notamment des coopératives de travail ou de travailleurs actionnaires, des groupes communautaires centrés sur le développement et l'insertion, et des fonds de financement qui expérimentent des solutions face à la crise des années 1980 et au retrait de l'État providence (Lévesque et Mendell, 2005). Les mouvements sociaux se préparent à investir l'économie sociale : Dans les années 1980, un nouveau « militantisme économique » dans les mouvements sociaux (syndical et communautaire) s'exprime, entre autres, par la création de nouvelles coopératives de travail, de corporations de développement communautaire (CDC), de corporations de développement économique communautaire (CDEC) et de fonds locaux et régionaux de 50 Les groupes populaires et le mouvement syndical, mettent en place des centres communautaires, gérés par les populations locales, qui luttent contre l'exclusion : des cliniques de santé, de cliniques juridiques, des associations coopératives d'économie familiale, des garderies, des comités de logement, des coopératives d'habitation et centres de vacances 51 « Violence conjugale, itinérance, isolement et pauvreté des personnes agrées » (D'Amours, 2006 : 74). développement. L'approche du développement économique communautaire (DEC) donne un sens nouveau à ces diverses expérimentations, de plus en plus reconnues, comme en témoigne la mise sur pied d'un chantier de l'économie sociale par le gouvernement du Québec au printemps 1996. Cette nouvelle approche repose fondamentalement sur une mobilisation de la société civile et sur les mouvements sociaux. (Favreau et Lévesque, 1999 : 65 dans Vaillancourt et Favreau, 2000) La place prépondérante du « communautaire » dans les processus du développement au Québec a permis notamment l'émergence du concept de Développement économique communautaire (DEC). Selon Jean-Marc Fontan, le DEC se caractérise par le contrôle local et la prise en charge du développement économique par la communauté mais pas seulement, il se distingue « premièrement, par la ferme volonté de s'attaquer à toutes les formes de marginalisation socioéconomique rencontrées » (Fontan, 1994 : 118). Le DEC se « différencie enfin par la volonté des intervenants d'intégrer les dimensions sociales et économiques tout en élaborant une approche globale et non segmentée » (Ibid.). Les corporations de développement économique communautaire (CDEC) découlent de ces principes et ont émergé en Amérique du Nord, d'abord aux États-Unis dans un contexte de revendication des droits civiques, de lutte contre la pauvreté et d'empowerment. Pour ses promoteurs, le DEC est une déclinaison nord-américaine du développement local dans laquelle les mouvements sociaux et la communauté sont partiesprenantes (Lévesque et Fontan, 1992). Au Québec, le développement communautaire a donc été une des principales filières d'expérimentation sociale qui a conduit à l'institutionnalisation du développement local et d'une gouvernance locale misant sur une concertation multipartite (pouvoir local, société civile et entreprises) (Lévesque, 2007 D'ailleurs, d'après Joyal (2012 : 675) une approche de développement Local (DL) « communautaire dit de type 'progressif' avec les secteurs coopératif et associatif comme pierre d'assise » aurait succédé au DEC. Cette approche de développement local a pour objectif une revitalisation des communautés et des territoires par le bas dans une perspective de justice sociale. À partir des années 1980, les syndicats québécois ont opéré un virement stratégique ; ils auraient de plus en plus participé à la reprise d'entreprises par les travailleurs ou d'initiatives de 84 développement économique notamment à partir de la création des fonds de travailleurs52. Le mouvement coopératif se renouvèle avec l'arrivée d'une nouvelle génération de coopératives, plus ancrée localement (D'Amours, 2006). 3.3.4. Un modèle québécois de développement territorial
Dans les années 1990, le militantisme économique53 de la société civile, bien organisée et éduquée, et des mouvements sociaux a pour conséquence à la fois une reconnaissance de l'État et la mise en place de partenariats. La plupart des travaux (Favreau, 2010 ; D'Amours, 2006 ; Levesque et Mendell, 1999 ; Lévesque, 2007 ; Vaillancourt et Favreau, 2000) s'accordent à 52 Le Fonds de solidarité des travailleurs du Québec émane de la Fédération des travailleuses et travailleurs du Québec (FTQ) en 1983 ; plus tard la Confédération des syndicats nationaux (CSN) crée le « fondaction », un fond épargne-retraite qui s'est donné pour but de dynamiser l'économie québécoise en privilégiant des investissements dans des entreprises de gestion participative ou d'économie sociale (coopératives ou autres). 53 Le Forum pour l'emploi, une initiative non gouvernementale, a impulsé une dynamique importante qui a culminé en 1989 avec un Forum « où les syndicats comptaient 486 représentants, le sociocommunautaire : 234, les coopératives : 192, les ministères : 181, les entreprises privées : 132 » (Lévesque et Mendell, 1999 : 15), de même Urgence Rurale, devenu ensuite solidarité rurale lors des États généraux du monde rural en février 1991 qui ont réuni 1200 délégués, a permis la reconnaissance des groupes communautaires ruraux (Ibid.). 85 penser que la marche des femmes contre la pauvreté, du pain et des roses, lancée le 4 juin 1995, a constitué un tournant majeur dans le processus de reconnaissance par l'État de l'économie sociale notamment 54. À la demande des mouvements sociaux, y compris des Syndicats, le pouvoir péquiste55 sous la direction de Lucien Bouchard, organise une Conférence sur le devenir social et économique du Québec en mars 1996 qui a réuni l'ensemble des mouvements sociaux et a initié notamment le chantier de l'économie sociale. C'est le départ de la reconnaissance institutionnelle du rôle de la société civile dans la dynamique de développement. Les divers chantiers ont fait état de leurs travaux au Sommet de l'économie et de l'emploi à l'automne 1996 qui a défini un nouveau modèle partenarial : Pour la première fois à l'échelle du Québec, la concertation initiée par l'État est devenue quadripartite avec la présence des groupes de femmes et des groupes communautaires. Ces nouveaux acteurs sociaux représentaient environ 20% de l'ensemble des délégués à ce sommet. (Lévesque et Mendell, 1999 : 17) Cette reconnaissance de l'économie sociale et du rôle des mouvements sociaux, dans le développement du Québec, a impulsé un nouveau mode d'institutionnalisation qui repose à la fois sur la participation et la consultation des acteurs de la société civile par l'État et l'adoption de trois types de mesures en ce qui concerne l'économie sociale : 1- Le premier type de réforme touche le développement local : les Centres locaux de développement (CLD) doivent adopter un plan d'économie sociale, et les coopératives régionales de développement sont les organes privilégiés de développement régional. L'économie sociale et le développement local entretiennent des liens étroits au Québec. 2- Le second type de mesure vise le financement de l'économie sociale par les institutions publiques de capital risque. 3- Enfin, des modifications législatives permettront le développement de nouveaux types de coopératives multipartites, les coopératives de solidarité inspirées du modèle multipartite italien. (Ibid.) 54 La marche a mis en évidence le rôle prépondérant des femmes dans les services de proximité. Elle a été suivie de la création d'un Comité d'orientation et de concertation sur l'économie sociale et de Comités régionaux d'économie sociale (CRES) qui deviendront les organes consultatifs des coopératives régionales de développement (Lévesque et Mendell, 1999). 55 Le PQ, Parti Québécois, était alors au pouvoir, il est considéré comme un parti social-démocrate souverainiste. Historiquement, l'économie sociale s'est développée avec l'appui des mouvements ouvriers. Le mouvement syndical mais aussi d'autres mouvements sociaux (communautaire, des femmes et écologique) ont joué un rôle fondamental dans la dynamique de l'économie sociale à la fin du XXe siècle. En ce sens, les acteurs qui composent la nouvelle génération d'économie sociale diffèrent des générations précédentes. Alors qu'ailleurs, les chercheurs opposent fréquemment économie sociale et solidaire, les chercheurs québécois (Vaillancourt et Favreau, 2000 ; Levesque, 2007 ; Favreau, 2010) distinguent différentes générations d'économie sociale, sans les opposer. Ils qualifient le renouveau de l'économie sociale par la « nouvelle économie sociale » pour la différencier des générations précédentes. Ils relèvent trois éléments qui caractérisent cette nouvelle génération : Les demandes sociales auxquelles ces initiatives cherchent à répondre ; les acteurs qui les animent ; la volonté explicite de changement social. Ces trois éléments peuvent grandement varier d'une génération à l'autre et n'opposent pas les générations de façon irréversible. (Vaillancourt et Favreau, 2000 : 3) Une autre caractéristique de l'économie sociale est d'avoir investi la filière du développement local et d'avoir été reconnue comme interlocuteur privilégié de l'État dans cet objectif. Les liens tissés entre développement local et économie sociale sont nombreux dès le début des années 1970. Le rôle fondamental joué par l'économie sociale dans le changement de paradigme en science régionale au Québec est souligné par de nombreux auteurs. Dans un numéro spécial de la Revue d'Economie Régionale et Urbaine (RERU), consacré aux sciences régionales québécoises, Lacour et Proulx relèvent un certain nombre de spécificités des sciences région québécoises. Ils rappellent que le développement territorial en France et au Québec ne se définit pas tout à fait de la même façon : Le développement territorial en France et au Québec renvoient à des notions et des pratiques fort différentes, le Québec ayant des modes de pensée et d'action qui sont plus marqués par des dimensions culturelles, associatives et souvent militantes. Modes de pensée fondateurs des modes de vie mais aussi réponses locales à la technocratie et aux programmes from below des instances gouvernementales, pratiques plus pragmatiques certes mais aussi plus utopiques souvent. (Lacour et Proulx, 2012 : 482) Outre la différence des pratiques et modes de pensée, les coéditeurs notent cinq caractères spécifiques des analyses régionales québécoises. En premier lieu, ils rappellent que le Québec est un territoire de distance et de dispersion. Paradoxalement, les liens étroits tissés entre l'économie sociale et le développement territorial n'ont pas été révélés de manière limpide dans la littérature scientifique. Un courant de travaux qui porte sur l'innovation sociale (Lévesque, 2006 ; Moulaert et Nussbaumer, 2008 ; Bellemare et Klein, 2011) met en avant le rôle de l'économie sociale en termes d'innovation sociale vectrice de développement territorial. Nous y reviendrons au point 3.4.3. En outre, la revue de littérature note plusieurs caractéristiques québécoises qui questionnent une orientation particulière de la notion de développement au Québec. La première caractéristique est la volonté d'un développement qui lie économique et social et se focalise sur les territoires en marge. Les premières initiatives de développement qui ont émergé dans l'Est du Québec dans les années 1970 étaient centrées sur la question de la revitalisation territoriale. De nombreux travaux montrent comment économie sociale, développement local et développement économique communautaire sont mobilisés dans la lutte contre l'exclusion, la pauvreté ou la dévitalisation territoriale (Fontan, 1994 ; Lévesque, 2002 ; Favreau et Larose, 2004 ; Klein, 2011 ; Diadou et coll., 2012). Comme le rappelle Juan-Luis Klein (2010), la première publication issue des colloques annuels de la section Développement régional de l'Association Canadienne-Française pour l'avancement des sciences (ACFAS) porte le titre Et les régions qui perdent (Coté et coll., 1995) en contrepoint de l'opus de Benko et Lipietz centré 56 Le récent mémoire, concernant le projet loi 28, déposé par le Centre de Recherche en Développement Territorial (CRDT) et signé par un nombre important de chercheurs, en témoigne. En s'appuyant sur la notion de capital socio-territorial, le mémoire rappelle au gouvernement l'importance des instances régionales de d remises en question par le projet de loi en question. Repéré à http://crdt.ca/wp-content/uploads/2015/02/projetLoi28-FinancesPubliques16-02-2015.pdf 88 sur les systèmes productifs vecteurs de réussite de certains territoires et intitulé Les régions qui gagnent (Benko et Lipietz, 1992). Ainsi « [ ] au Québec a émergé une approche du développement basé sur l'équité et la solidarité, fortement influencée par la volonté d'atteindre un équilibre entre le développement économique et le développement social » (Klein, 2010 : 147). La seconde caractéristique est le rôle assumé de l'économie plurielle dans le développement régional et local. Benoît Lévesque (2008) rappelle d'une part, le caractère pluriel assumé de l'économie sociale (ressources marchandes, non marchandes et non monétaires) et, d'autre part, comment « les gouvernances locales et même régionales qui se sont imposées au Québec relèvent de l'économie sociale » (2008 : 225). Klein (2010) note cette spécificité de l'approche québécoise par rapport à des approches plus centrées sur l'entreprenariat privé ou les politiques publiques. Le modèle partenarial québécois intègre la société civile y compris les mouvements sociaux et le secteur communautaire dans une approche de développement territorial de type « 'progressif' avec les secteurs coopératif et associatif comme pierre d'assise » pour reprendre les mots de Joyal (2012). Les travaux québécois ont très largement participé à la coexistence d'une approche de développement territorial de ce type avec d'autres approches plus classiques. Ces travaux ont porté un regard attentif au dynamisme interne des communautés et des territoires qui dépasse l'approche classique centrée sur la production économique. Moulaert et Nussbaumer (2008) relèvent la limite ontologique de l'analyse économique dans laquelle l'analyse est systématiquement orientée vers la productivité économique : [] les modèles de croissance endogène ont intégré des facteurs de transformation économique (innovation, intervention publique, reproduction du capital humain, etc.) au sein du modèle explicatif de la croissance, mais se sont heurtés aux contraintes de l'analyse formelle de l'économie orthodoxe ainsi qu'à sa limite ontologique. En effet, même les approches les plus endogènes de la science économique, dans leur analyse, subordonnent les sphères non marchandes de la société à la logique marchande et aux stratégies de compétition. Même les modèles territoriaux de l' sociale, qui mettent le développement au centre de leur vision analytique et politique, privilégient une causalité qui va de la dynamique culturelle, institutionnelle, sociale vers la nouveauté économique et la compétitivité et non pas vers des objectifs de développement humain. (Moulaert et Nussbaumer, 2008 : 28) Torre, dans un article récent, regrette que les approches de développement territorial se soient trop souvent concentrées sur les approches productives et appelle à une définition élargie du développement territorial « qui prenne en compte non seulement les mutations productives mais 89 aussi l'ensemble des changements sociaux et institutionnels à l'oeuvre dans les territoires » (2015 : 285). Il semble bien qu'il s'agit de l'une des forces du développement territorial à la québécoise, lequel prend en compte la multifonctionnalité de l'économie. 3.4. Économie sociale et territoires : une relation étroite peu théorisée
Le concept d'économie sociale (ÉS) est central dans l'approche théorique de cette contribution : l'objet de cette thèse, le tourisme coopératif, se situe dans ce champ. Pour bâtir le cadre conceptuel de l'ÉS, il est nécessaire de s'appuyer sur une définition de référence. Celle-ci permettra de dégager des caractéristiques de l'économie sociale nécessaires à un cadre opérationnel de recherche. Pour ce faire, les différentes approches de l'économie sociale seront revisitées. Parmi elles, l'approche par les valeurs apparaît comme la plus pertinente dans le cadre de cette recherche qui porte sur le Québec. Les critères dégagés par cette approche seront en mis en exergue. Au point suivant, la faible entrée territoriale de l'économie sociale sera discutée. Enfin, une synthèse du point sera proposée. 3.4.1. Différentes approches de l'économie sociale
De nombreux auteurs ont travaillé sur une définition soit de manière inclusive, notamment pour lui donner un certain poids et une visibilité, ou au contraire de manière plus radicale, pour la distinguer clairement d'autres formes d'économie, et en particulier des modèles dominants. Selon la langue usitée, ou le pays, les définitions sont très variables. Dans le monde anglo-saxon, le secteur non lucratif (non-profit sector) exclue de facto les entreprises coopératives. A contrario, en France, l'économie sociale fait généralement référence aux coopératives, mutuelles et grandes associations, tandis que le vocable « économie solidaire » est employé pour désigner les « associations du type services de proximité (comme des centres populaires d'enseignement), des entreprises d'insertion, du tourisme social comme celles que l'on retrouve au Chantier de l'économie sociale » (Favreau, 2010 : 63). D'après D'Amours (2006), il existe quatre façons de définir l'économie sociale dans la littérature : 91 a) par les composantes ou le statut juridique (Desroche, 1983 dans D'Amours, 2006), b) par les acteurs, les activités et les règles de fonctionnement (Vienney, 1994), c) par les valeurs (Defourny, 1990 dans Defourny et Laville, 2007) et d) par un projet politique (Laville, 2003, 2011 ; Prades, 2012). Nous justifierons par la suite notre choix de retenir l'approche par les valeurs comme cadre conceptuel d'analyse des coopératives touristiques au Québec. a) L'approche par les composantes ou le statut juridique
Selon Henri Desroche, les composantes fondamentales de l'ÉS sont les coopératives, les mutuelles et les associations ou organismes à but non lucratif. Le principe de leurs statuts est fondé d'une part sur la primauté de la personne sur le capital, et sur le principe « un Homme, une voix ». En outre, leur forme de capitalisation n'offre pas d'avantage individuel ni sur le plan de la gouvernance, ni sur le plan de la redistribution des surplus. Enfin, en cas de liquidation, les réserves accumulées ne peuvent pas bénéficier à un individu ou un groupe d'individus. Si sur le principe, cette approche semble simple, elle peut poser un certain nombre de problèmes. En effet, elle intègre naturellement des grandes entreprises qui peuvent avoir contourné le problème de la capitalisation particulière par la création de filiales en société anonyme (SA), c'est le cas de la plupart des banques coopératives en France. Cela pose problème, notamment sur le plan démocratique : [Cette stratégie fait coexister] deux types d'assemblées générales, de sociétaires et d'actionnaires [], avec le risque de mal comprendre la stratégie d'une banque coopérative, qui chercherait à « demeurer coopérative devant les sociétaires et être capitaliste devant les actionnaires » (Roux et Guider, 2009). (Glémain et Caire., 2014 : 3) De plus, les composantes périphériques décrites par Desroche ont des proximités fortes avec le secteur privé (entreprises participatives), public (entreprises ou organisations publiques), syndical (entreprises paritaires) ou communautaire (entreprises populaires). Ainsi, une entreprise privée qui consent à une modeste participation aux bénéfices pourrait être considérée 92 comme intégrée au secteur de l'économie sociale selon cette approche. Par ailleurs, les associations, compris celles qui n'assurent pas d'activité économique, sont prises en compte de facto. L'intérêt de cette méthode de décompte assez large est, outre sa simplicité, de donner une certaine visibilité à l'économie sociale. Enfin, elle prend en compte à la fois les activités marchandes et non marchandes. b) L'approche par les acteurs, les activités et les règles Claude Vienney (1994) propose de partir des caractéristiques et des acteurs qui animent ces entreprises particulières pour ensuite en définir les composantes. Selon lui, leurs statuts juridiques correspondent avant tout à des règles qui reposent sur quatre grands principes : - identification réciproque des personnes associées et de l'activité d'une entreprise ; - égalité des associés, indépendamment de leur participation au financement et l'activité de cette entreprise ; - s'il est admis, partage des excédents entre les associés proportionnellement à leurs participations à l'activité ; - propriété durablement collective des bénéfices réinvestis. (Vienney, 1994 : 7) Il remarque que l'on trouve ces règles dans les statuts des coopératives et des mutuelles, mais pas toujours dans les associations. D'autre part, les activités sont définies par les statuts qui précisent « pourquoi les personnes s'associent. » (Ibid. : 7). De plus, les acteurs qui les composent sont « les participants à l'activité qui accèdent à la propriété des moyens de production et assument les fonctions de l'entrepreneur, selon leur intérêt pour cette activité « (Ibid. : 9). Cette définition exclut les entreprises privées ou publiques. Pour lui, les acteurs en question sont en général dominés et s'associent pour sauvegarder leurs activités ou satisfaire des besoins non-comblés par le marché ou l'État. Ils régissent leur association économique en adoptant un certain nombre de règles proches de celles définies par la Loi première des équitables pionniers de Rochdale reprises par l'Alliance coopérative Internationale.
c) L'approche par les valeurs
La troisième approche, basée sur les valeurs, est élaborée par Jacques Defourny (1990, dans Defourny et Laville, 2007) pour le conseil wallon de l'ÉS. Cette définition a beaucoup inspiré le mouvement québécois. L'économie sociale regroupe l'ensemble L'économie sociale se compose d'activités économiques exercées par des sociétés, principalement coopératives, des mutualités et des associations dont l'éthique se traduit par les principes suivants : finalité de service aux membres ou à la collectivité plutôt que de profit, autonomie de gestion, processus de décision démocratique, primauté des personnes et du travail sur le capital dans la répartition des revenus. (Conseil wallon de l'économie sociale, 1990 dans Defourny et Laville, 2007 : 79) La définition de l'ÉS par le Chantier de l'économie sociale reprend cette définition qui met l'accent sur les pratiques et ajoute un cinquième principe : « participation, prise en charge et responsabilité individuelle et collective » (Chantier de l'économie sociale, 1996 : 7). Laville s'appuie sur les travaux de Vienney (1994) qui montrent la banalisation économique du mouvement coopératif et le rapprochement avec les entreprises capitalistes. Il se positionne sur une approche critique de l'ÉS, y compris coopérative, qu'il considère comme repliée sur une fonction résiduelle de correction d'abus du capitalisme, éloignée du terrain politique et se focalise sur le potentiel de changement social de l'économie solidaire émergente : L'autre voie, bien plus féconde à notre sens, consiste à réaffirmer avec force non seulement l'épaisseur socioéconomique mais aussi la contribution éminemment politique de l'économie sociale, du moins pour ses composantes se reconnaissant aussi dans une approche d'économie solidaire. (Ibid. : 83) Les chercheurs québécois Vaillancourt et Favreau, (2000), Levesque, (2007), Favreau (2010) distinguent différentes générations d'économie sociale et qualifient le renouveau de l'économie sociale par la « nouvelle économie sociale » pour la différencier des générations précédentes. Favreau pousse même assez loin la critique « de la rhétorique sociologique et politique de l' « économie solidaire » à la française » (Favreau 2010 : 19), à qui il reproche de ne se focaliser que sur la nouvelle génération d'économie sociale et de ne pas appréhender le mouvement coopératif dans sa durée : A se confiner dans l'émergent paraissant disposer d'un potentiel élevé de changement social, on se trompe souvent en ayant un point de vue ahistorique et trop microsocial. » (Favreau, 2010 : 19). Azam reconnaît l'intérêt de l'approche de Laville, mais lui reproche d'induire « qu'un équilibre institutionnel stable puisse être trouvé entre les trois formes d'organisation économique » (Azam, 2003 : 159) soit le marché, la redistribution et la réciprocité ; elle appelle à une réduction du rôle du marché. Comme d'autres auteurs (Favreau, 2010 ; Prades, 2012), elle reproche à l'économie solidaire sa dépendance aux subventions de l'État qui ne saurait signifier un « reéencastrement de l'économie dans le politique » (Ibid). Elle propose, pour ce faire, de revisiter « la tradition du socialisme associationniste des années 1840 » (Ibid). Une telle approche présente la limite d'exclure des composantes de l'économie sociale. En effet, les auteurs québécois, Levesque et Mendell, (2005), Favreau, 2010, Bouchard et coll., (2011), s'accordent à penser que le mouvement coopératif s'inscrit bien dans la filiation de l'économie solidaire de première génération qui a émergé dans la première moitié du XIXe siècle. C'est pourquoi, selon Lévesque, une définition de l'ÉS doit prendre en compte ses différentes composantes, une dimension de l'économie plurielle, à côté de l'économie publique 95 et de l'économie libérale et la diversité des logiques marchande et non marchande. Selon lui, l'ÉS est porteuse de changement social notamment par sa capacité de diffusion de nouvelles formes de démocratie. Fontan (2006, dans D'Amours, 2006), propose une approche de l'ÉS en la divisant en deux tendances : une tendance dominante pragmatique et une tendance marginale utopique et politique. Dans cette recherche, l'ÉS sera donc considérée selon la définition en cours au Québec. 3.4.2. L'approche par les valeurs : une approche pertinente au Québec
Dans le sillage des travaux du Centre de recherche sur les innovations sociales (CRISES) qui s'attachent à définir le cadre conceptuel de l'économie sociale au Québec, nous arguons que la définition de l'ÉS la plus pertinente à retenir pour établir un cadre conceptuel « est la définition qui a cours et qui s'est institutionnalisée (au sens de norme généralisée) dans la société » (Bouchard et coll., 2011 : 22). La définition de 1996 (voir encadré 1) qui s'appuie sur l'approche par les valeurs de Defourny « a été entérinée en 1996 par un ensemble d'acteurs provenant des composantes coopératives et associatives de l'économie sociale, du mouvement des femmes, des syndicats et du gouvernement » (Ibid.). En outre, elle ferait toujours l'objet d'un large consensus en date de leur analyse, soit en 2011. Elle s'appuie sur l'ensemble des courants qui ont marqué l'histoire de l'économie sociale au Québec et les différentes générations d'économie sociale décrites précédemment. Elle est donc intégrative des différentes composantes de l'économie sociale et comparable à un certain nombre de définitions dans le monde (Ibid.). Encadré 1 : Définition de l'économie sociale de 1996
Le concept d'économie sociale combine deux termes qui sont parfois mis en opposition : « économie » renvoie à la production concrète de biens ou de services ayant l'entreprise comme forme d'organisation et contribuant à une augmentation nette de la richesse collective. « sociale » se réfère à la rentabilité sociale, et non purement économique de ces activités. Cette rentabilité s'évalue par la contribution au développement démocratique, par le soutien d'une citoyenneté active, par la promotion de valeurs et d'initiatives de prise en charge individuelle et collective. La rentabilité sociale contribue donc à l'amélioration de la qualité de vie et du bien-être de la population, notamment par l'offre d'un plus grand nombre de services. Tout comme pour le secteur public et le secteur privé traditionnel, cette rentabilité sociale peut aussi être évaluée en fonction du nombre d'emplois créés. Pris dans son ensemble, le domaine de l'économie sociale regroupe l'ensemble des activités et organismes, issus de l'entrepreneuriat collectif, qui s'ordonnent autour des principes et règles de fonctionnement suivants : − l'entreprise de l'économie sociale a pour finalité de servir ses membres ou la collectivité plutôt que de simplement engendrer des profits et viser le rendement financier ; − elle a une autonomie de gestion par rapport à l'État ; − elle intègre dans ses statuts et ses façons de faire un processus de décision démocratique impliquant usagères et usagers, travailleuses et travailleurs ; − elle défend la primauté des personnes et du travail sur le capital dans la répartition de ses surplus et revenus ; − elle fonde ses activités sur les principes de la participation, de la prise en charge et de la responsabilité individuelle et collective. Le domaine de l'économie sociale recouvre donc l'ensemble des vements coopératif et mutualiste et celui des associations. L'économie sociale peut être développée dans tous les secteurs qui répondent aux besoins de la population et de la collectivité. Dans certains de ces secteurs, et plus particulièrement ceux qui répondent à des besoins sociaux, la viabilité découle en partie des contributions de l'État sous diverses formes (contributions directes, subventions aux usagers, ententes négociées, mesures fiscales, etc.). L'économie sociale repose également, en partie, sur l'engagement bénévole des individus et des collectivités locales. Source : Chantier de l'économie sociale, 1996 : 6 et 7. 97
Cette définition est suffisamment précise pour construire un cadre d'analyse des coopératives touristiques. La définition contient certains éléments qui « peuvent [] se manifester par des dimensions factuelles, accessibles sans mener d'enquête, vérifiables objectivement, et assez durables lorsqu'elles sont codifiées par des lois, des règles ou des normes qui encadrent systématiquement le comportement des organisations » (Bouchard et coll., 2011).
CADRE CONCEPTUEL POUR DÉFINIR LA POP
Ces auteurs ont donc mis en évidence un certain nombre de critères objectifs de qualification 2.5.1.1 Le social détermine l'économique qui permettent de qualifier l'économie sociale et conséquemment notre objet de recherche, soit L'un des principes, la rentabilité sociale, détermine les autres. C'est en effet parce que le social les coopératives touristiques. Ce sont 1) critères distribution production détermine l'économique que les l'organisation se de donne des règleslimitée, limitant 2) ou de interdisant la distribution des bénéfices, qu'elle produit des biens ou des services destinés à ses membres ou à la organisée, 3) d'autonomie et indépendance et desont 4) gouvernance démocratique. Ce faisceau collectivité, que ses processus décisionnels basés sur une gouvernance démocratique d'usagersde ou de travailleurs, qu'elle s'assure de son autonomie et de son indépendance vis‐à‐vis des critères est représenté ci-dessous dans le cadre conceptuel de l'économie sociale au Québec gouvernements et des autres entreprises. Et c'est en raison de ses objectifs de rentabilité sociale que (Ibid.) l'économie sociale peut mobiliser l'engagement de bénévoles et les ressources publiques en , des revenus de marché, dans le cas des activités à dominante marchande. La vérification de la rentabilité sociale, sous l'angle des manifestations factuelles observables facilement47, est donc assurée par la vérification des autres principes.
| 51,499
|
63/halshs.archives-ouvertes.fr-halshs-00097442-document.txt_3
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 8,742
| 13,849
|
65 66 Amendement ratifié en 1975. Ce statut permet notamment l'abolition des taxes à l'importation de produits étrangers aux Etats-Unis. Une telle déclaration laissait augurer la levée des dernières barrières à l'émigration des Juifs d'URSS après tant d'années caractérisées par la multiplicité et la diversité des obstacles pour bloquer les départs.
Tableau 8 - Emigration juive d'ex-URSS et relations internationales (1968-1988) Evénements internationaux majeurs
Ouverture de la "Détente": Rencontres URSS-France et URSS-RFA Première Conférence de Bruxelles Visite du Président Nixon à Moscou, Accords SALT1 Guerre du Kippour Ratification de l'Amendement Jackson-Vanick au Sénat américain Deuxième Conférence de Bruxelles Accords SALT2 et intervention soviétique en Afghanistan
Intervention israélienne au
Liban
Interrègne Andropov-Tchern
enko
: "
immobilisme politique
" Election de Mikhail Gorbatchev Années 1968 1969 1970 1971 1972 1973 1974 1975 1976 1977 1978 1979 1980 1981 1982 1983 1984 1985 1986 1987 1988 1968-1988 Nombre d' émigrants d' URSS Nombre d' invitations envoyées aux familles 231 3 033 999 12 897 31 903 34 733 20 767 13 363 14 254 16 833 28 956 51 331 21 648 9 448 2 692 1 314 896 1 140 904 8 155 18 961 294 458 1 550 10 267 4 307 22 933 40 546 40 576 33 305 28 041 33 088 44 209 82 766 99 825 48 628 23 143 11 818 8 743 6 367 7 574 6 657 20 068 100 000 674 411 Nombre d' immigrants en Israël 231 3 033 999 12 839 31 652 33 277 16 888 8 435 7 250 8 350 12 090 17 278 7 570 1 762 731 861 340 348 201 2 072 2 173 168 380
Source statistique: DOMINITZ Yehuda, 1997, "Israel's Immigration Policy and the Dropout Phenomenon" in LEWIN-EPSTEIN N. (et al.) (ed.), Russian Jews on Three Continents: Migration and Resettlement, London: Frank Cass (The Cummings Center Series), p.119 III.3 Réussir à partir comment et pour où? Au
delà des considérations diplomatiques liées au « baromètre des relations américano-soviétiques, de multiples obstacles dressés par l'administration soviétique influaient sur le cours de l'émigration juive. Le candidat au départ devait en premier lieu être en possession d'une invitation ou vyzov. Il s'agissait d'une demande d'autorisation de sortie d'un résident juif émise par un parent israélien dans le but d'un regroupement familial, visée par le ministère des Affaires Etrangères israélien et adressée aux autorités soviétiques. Les juifs russes et l'édification d'Israël
Un second obstacle a résidé dans l'introduction de l'obligation faite de ne pas laisser de membres de sa famille en URSS. Cette règle fut plus ou moins appliquée dans les différentes républiques et elle connut de nombreuses variantes. Pour exemple, certaines administrations autorisèrent le départ d'un ou plusieurs membres de la famille à la condition que ceux qui ne désiraient pas partir s'engagent à ne plus jamais déposer une demande de sortie [Rozenblum, 1982 : 170]. Une fois l'obstacle du vyzov passé venait celui de l'obtention du certificat de l'employeur -ou de l'université pour les étudiants-, attestant que le demandeur était en règle dans son activité. Lors de cette démarche (obligatoire), beaucoup de candidats au départ se virent signifier leur renvoi par leurs employeurs. L'administration eut très souvent recours à cette action punitive pour humilier le « traître » qui désirait quitter sa patrie. Les scientifiques furent de loin les premiers à pâtir de telles représailles. Nombreux furent les « très qualifiés » qui malgré tous les éléments nécessaires obtenus -au prix d'une exclusion de leurs institutions de recherche- se virent infliger un refus d'émigrer par l'OVIR (le service des visas de l'Office des Affaires Intérieures en charge des migrations). Les noms de ces scientifiques furent scandés par des milliers de militants juifs en Occident et ils devinrent les plus célèbres des Refuzniks (« les refusés ») avec comme figure emblématique Nathan Charansky, aujourd'hui leader du parti russe Israel Ba-aliya et ministre de l'Industrie du gouvernement Netanyahou. Les refus de l'administration et la perte de leurs emplois n'entam jamais la foi de ces Refuzniks. En réponse à l'interdiction de poursuivre leur activité professionnelle, ils organisèrent des séminaires scientifiques dans leur propre résidence, dans la « chaleur des cuisines » comme le dira Danielle Storper Peres. Le soutien affiché aux Refuzniks en Occident68 et la forte conviction de ces derniers en tant que symboles de la lutte pour la liberté a très vite conduit les autorités soviétiques à des actions de répression contre l'entière communauté juive. Cette mesure collective, justifiée par « l'affiliation de tous les Juifs au sionisme », se concrétisa par l'éviction d'un grand nombre de Juifs au sein des grandes écoles et des universités. Une chute de 40% du nombre d'étudiants juifs fut enregistrée entre les années universitaires 1971-72 et 1977-78 [Jones, 1996 : 25]. Un principalement au début de la décennie, ce sont plus de la moitié des Juifs de Géorgie, environ 40% de ceux de Lituanie et un quart de ceux de Lettonie qui ont émigré. Mais à la fin des années soixante-dix, le mouvement s'inverse donc et l'Ukraine et la Russie vont fournir le plus gros du contingent des émigrants juifs. L'URSS a exploité toutes les occasions possibles pour bloquer le départ des Juifs car elle avait conscience qu'au-delà du risque d'extension à d'autres groupes ethniques69, cette émigration constituait une réelle « fuite des cerveaux ». Les dissidents ne profiteront guère de cette délocalisation des foyers d'émigration. Bien au contraire, les peines d'emprisonnement, les détentions en camp de travail ou en hôpitaux psychiatriques se multiplièrent à leur encontre. Ceux qui échappèrent à ces mises aux arrêts se virent néanmoins refuser leurs autorisations de départ sous le motif de plus en plus fréquemment utilisé, de la connaissance de secrets d'Etat. En 1976, une enquête sur 500 familles de Refuzniks avait montré que 42% des refus étaient motivés par le « secret d'Etat » et 32% par les « fonctions passées tenues dans l'Armée » [Levin, 1988 :728]. Comme nous l'avons souligné plus haut, ce dernier obstacle à l'émigration fut progressivement levé par Mikhaël Gorbatchev. L'homme qui symbolisa cette lutte pour l'émigration des « refuzniks », Nathan Tcharansky, ne fut autorisé à émigrer en Israël qu'en 1986. Cet événement qui fit la une de milliers de journaux dans le monde annonçait le dénouement prochain de la question juive en URSS. A la fin des années quatre-vingt, la perspective d'une libéralisation de l'émigration juive d' -URSS est d'autant plus importante qu'elle constitue le seul moyen de poursuivre la ligne géostratégique que s'est donnée l'Etat en conférant une valeur cardinale à la relation immigration-géostratégie. Au cours de la période 1948-1985, un peu plus de 450 000 personnes ont quitté l'URSS parmi lesquelles les juifs constituèrent plus des deux tiers du groupe migrant, les Allemands près d'un quart (105 000 personnes) et les Arméniens environ un huitième (52 000 personnes). La majorité des Allemands se dirigèrent vers ce qui était la RFA, les Arméniens trouvèrent refuge en France au début des années 50 puis essentiellement aux Etats-Unis. Voir notamment l'article de S. Heitman, « Jewish, German, and Armenian Emigration from USSR : Parallels and Differences », in Freedman R. (ed.), 1989, Soviet Jewry in the 1980s. The politics of anti-semitism and emigration and the dynamics of resettlement, Durham : Duke University Press, p.113-138. 51 CHAPITRE DEUX ISRAËL : UN CONSTRUIT SUR LE IMMIGRATION/GEOSTRATEGIE TERRITOIRE BINOME
Dans la partie que consacre Michel Ragon à Israël, dans son Histoire de l'architecture et de l'urbanisme modernes, il écrit « Israël est évidemment l'un des pays du monde où l'on a le plus bâti depuis la fin de la Seconde guerre mondiale puisque les Israéliens ont dû construire le pays lui-même. () » [1986 : 190]. En ces quelques lignes, M. Ragon souligne le formidable effort qu'a dû fournir Israël dans les premières années de sa création et la question centrale qu'a été, pour les décideurs et aménageurs israéliens, l'orientation à donner à la construction de la nation israélienne. Quel plan de répartition spatiale de la population fallait-il privilégier, quelles priorités devaient être définies dans un pays qui se construisait dans un climat de guerre? Diverses options ont été tentées en regard de la situation héritée de la Palestine mandataire et de la configuration territoriale issue de la guerre d'Indépendance. Aux premières heures de l'Etat, aux logiques d'aménagements est venue se greffer une pensée géostratégique où une ligne politique définissant un lien fort entre immigration et organisation de l'espace a été définie. Dès 1949, Ben Gourion avait clairement énoncé la relation dialectique entre aliya et Etat en déclarant « l'avenir de l'Etat dépend de l'immigration » [Segev, 1998 :121]
I OCCUPER L'ESPACE : DES MA'ABAROTH AUX VILLES DE DEVELOPPEMENT
Entre mai 1948 et décembre 1951, en premier lieu, il s'est agi de trouver un accueil pour les quelques 680 000 Juifs qui ont immigré en Israël. L'urgence de la situation n'a pas permis une véritable planification de l 'accueil des nouveaux arrivants. Ceux-ci se sont répartis selon les opportunités que présentait le yichouv.
I.1 L'espace palestinien, l'armature de la politique d'organisation du territoire israélien I.1.1 La Palestine mandataire : un espace dichotomique
Dans sa dimension démographique, l'espace mandataire présentait une géographie humaine dichotomique où un territoire juif se juxtaposait à un territoire arabe. L'espace de vie juif, comme nous l'avons souligné dans la partie précédente, s'est développé dans la plaine côtière, dans la vallée de Jézréel et la Galilée tandis que les populations arabes étaient regroupées essentiellement dans les espaces centraux de la Palestine (qui deviendront la Transjordanie), dans la région de Gaza et son arrière-pays, et en Galilée. 52 Israël : Un territoire construit sur le binôme mmigration
Globalement, au lendemain de la guerre, la population arabe ne représente plus que 156 000 personnes sur l'ensemble du territoire sous contrôle israélien70. Une partie non négligeable des Palestiniens restés dans les frontières du nouvel Etat juif était constituée de véritables réfugiés. Certains Palestiniens qui avaient quitté leur propriété devant le danger créé par le déclenchement du conflit pour des zones moins exposées (dans les limites de l'actuel Etat d'Israël) ne furent jamais autorisés à retourner sur leurs terres. Les Arabes dits Israéliens ont vécu, malgré l'octroi de la nationalité israélienne, sous un régime d'exception militaire jusqu'en 196671. Haïfa, la première illustration des pensées stratégiques de
l
'Etat d'Israël
Selon Benny Morris, lors d'une visite à Haïfa, les 1 et 2 mai 1948, Ben Gourion avait exprimé les visées des dirigeants sionistes concernant les populations arabes : « (a) A Haïfa, leur nombre ne devra pas excéder les 15 000, (b) deux tiers devront être chrétiens, un tiers musulmans, (c) tous les chrétiens devront être concentrés à Wadi Nisnas, (d) les musulmans devront être concentrés dans le quartier de Wadi Salib ». Cette déclaration soulignait l'idée d'une délocalisation des populations arabes permettant d'installer les immigrants dans les habitations des expulsés et exilés, et, en termes de quotas, montrait les considérations stratégiques qui faisaient des Palestiniens, une potentielle « cinquième colonne » au sein du nouvel Etat. Le projet de « ghettoïsation » des Arabes de Haïfa fut appliqué dès que les forces britanniques eurent évacué la ville. Au cours de la première semaine de juillet de 720 familles arabes furent déplacées essentiellement à Wadi Nisnas. Une fois ces populations déplacées, l'opération Shikmona fut déclenchée. Il s'agissait de détruire une partie des habitations abandonnées afin d'améliorer l'aménagement de la ville et de construire de nouvelles habitations pour de nouvelles populations juives. Pour les Israéliens, la situation de guerre dans laquelle était le pays lors de ces opérations a justifié les déplacements de populations arabes et le non-octroi de compensation aux arabes pour leurs habitations détruites. Source : MORRIS B., 1990, 1948 and after, Israel and the Palestinians, Oxford : Clarendon Press, pp.149-171. Pour les Israéliens, ces lieux de vie communs, malgré une réelle ségrégation ethnique des quartiers, ont constitué des objectifs majeurs dans le projet de maîtrise du territoire. Au lendemain de la création de l'Etat, l'immigration a servi le projet politique israélien qui s'était donné pour devise les propos de Ben Gourion : « la colonisation, voilà la véritable conquête » [Segev, 1998 :121]. De cette période à nos jours, la perception du territoire chez les dirigeants israéliens s'est constamment établie dans une perspective géostratégique reposant sur la logique « accroissement démographique = sécurisation des frontières ».
I.1.2 L'appel migratoire lié à la création de l'Etat : l'occasion des premières tentatives d'organisation de l'espace
La configuration socio-spatiale de la Palestine et les modifications territoriales issues de la Première guerre israélo-arabe ont permis de dégager trois grands types d'espace d'accueil 70 71 Selon Eisenstadt [1985:332], la majorité d'entre eux était composée de Musulmans, environ 107 000, puis de chrétiens (34 000) et de 15 000 Druzes et Bédouins. De premiers signes de relâchement de l'étreinte militaire sur cette population se sont fait jour dès 1963 permettant ainsi l'instauration d'un rapport avec la société juive israélienne. 53 Chapitre deux de l'immigration dans le nouvel Etat : les localités abandonnées par les populations arabes lors de la guerre de 1948, les centres d'accueil en périphérie des villes juives et les espaces ruraux (kibboutzim et moshavim). I.1.2.1 L'occupation des espaces abandonnés par les populations arabes
Le premier espace d'accueil qui va accroître la structure urbaine d'Israël réside dans le mouvement d'installation des immigrants juifs dans les logements des localités arabes vidées de leur population par la guerre72. La nécessité de loger au plus vite les nouveaux arrivants et d'occuper l'espace conquis lors du conflit a motivé cette politique d'occupation des logements arabes. Les villes de Jaffa, Haïfa, Jérusalem, Lod, Ramleh, Yavné, Acre et Be'er Sheva voient s'installer des milliers de juifs dans les logements abandonnés par les populations arabes, plus de 123 000 selon Eisenstadt [1954 :109]73. Parallèlement à l'installation dans les principales centralités urbaines palestiniennes conquises, ce sont de nombreux espaces ruraux qui ont vu se substituer une population immigrante juive à celle d'origine palestinienne décimée ou exilée. Dès mars 1950, par la voie législative, cette politique d'appropriation des biens arabes a été légitimée par le gouvernement de Ben Gourion. La promulgation de la loi relative aux terres « désertées » a rendu l'Etat propriétaire des terres appartenant aux personnes définies, au lendemain du conflit, comme absentes [Bensimon, 1989:392] (cf. encadré). L'appropriation israélienne des terres arabes
Est considérée comme personne absente : « Toute homme qui était propriétaire légal d'un bien situé en territoire israélien, ou en tirait les fruits, ou en avait la détention, personnellement ou par l'intermédiaire d'autrui. Celui qui était citoyen du Liban, de l'Egypte, de la Syrie, de l'Arabie Saoudite, de la Transjordanie, de l'Irak, du Yémen et résidant dans ces pays ou en Palestine. Celui qui était citoyen palestinien avant le 1er septembre 1948 et qui a quitté son domicile habituel en Palestine pour un endroit situé soit à l'étranger, soit dans une partie de la Palestine qui était occupée à l'époque ou, s'il s'y était rendu, par des forces armées qui ont empêché la création de l'Etat d'Israël ou qui l'ont combattu après sa création. » BENSIMON D., ERRERA E., 1989, Israéliens, des Juifs et des Arabes, Bruxelles : Complexe (Historiques), pp.392-393. L'appropriation des terres « abandonnées » a renforcé l'une des clefs majeures de la politique israélienne en matière d'aménagement territorial dans la mesure où celle-ci a accru les surfaces de terres détenues par l'Etat (environ 95% de la totalité). Elias Sanbar a rappelé que les conquêtes militaires israéliennes avaient finalement permis avec la destruction de 415 villages arabes, la mainmise sur 1,6 million d'hectares [Sanbar, 1994 :66]74. Le fait qu'Israël soit propriétaire de la quasi totalité des terres du pays lui a conféré une plus grande latitude pour mettre en pratique sa volonté politique et les orientations définies par les aménageurs. Un préalable à chaque établissement dans des espaces durables et semi-durables a été le passage, pour de courtes périodes, dans des centres d'accueil bien souvent constitués par les anciens campements militaires britanniques. 73 Selon Pierre Feuillie, près de 250 000 familles se seraient installées dans les logements abandonnés [1953 :127]. 74 Soulignons que E. Errera estime à 650 000ha, la superficie des terres arabes que se sont appropriées les Israéliens. Selon l'auteur, cette acquisition a représenté 60% des terres arabes [Bensimon, 1989 : 393]. 72 Aujourd'hui, les seuls vestiges de cette période consistent en quelques superbes bâtisses arabes comme celles du quartier de Ge'ullim à Jérusalem mais surtout en le souvenir de ces lieux transmis de génération en génération chez les Palestiniens exilés de 194875.
I.1.2.2 Les ma'abaroth ou la genèse de nouveaux centres urbains
A coté de l'organisation d'un nouvel espace de vie juive dans les structures palestiniennes abandonnées, le gouvernement israélien a mis en place pour les nouveaux immigrants de véritables camps de transit appelés ma'abaroth. En 1950, plusieurs dizaines de camps de transit ont été érigés. Deux options furent adoptées quant à la localisation des ma'abaroth, soit une implantation en périphérie des villes préexistantes, soit dans une zone pionnière définie comme espace à développer. Les nouveaux immigrants s'y installèrent par milliers avec pour logements des tentes ou des baraques en bois. Ces premiers Israéliens trouvèrent à travailler soit dans les fermes ou villes avoisinantes à leur camp76 ou sur les chantiers lancés par l'Etat comme la construction d'infrastructures telles les voies de communication ou bien encore ceux voués à la cré de nouvelles localités rurales ou urbaines. Outre l'idée de sécuriser les frontières qui prédominait dans cette politique d'organisation de l'espace, il s'est agi de freiner la concentration urbaine de la population juive dans les trois grandes villes de Jérusalem, Haïfa et Tel Aviv. Cette dernière regroupait 43% de la population urbaine en 1948 [Karmon, 1971 :90]. Le succès de ce premier essai de déconcentration de la population fut mitigé. Certes, le but qu'était la diminution de l'importance de Tel Aviv dans l'ensemble de la population urbaine fut atteint avec une part inférieure à 30% en 1957, mais celle-ci s'est faite au prix d'un fort mouvement de péri-urbanisation. Il n'est pas rare de voir pour qui emprunte la ligne de bus reliant Jérusalem à Tel Aviv, de vieux Palestiniens, arcboutés sur leur canne en olivier, montrer à leurs petits enfants les lieux de leurs anciens villages quittés cinquante ans plus tôt. Aujourd'hui, le village d'Abu Gosh témoigne de la présence passée des Palestiniens dans cette région du petit triangle (ou dite encore « corridor de Jérusalem ») entre les deux grandes cités israéliennes. Sur l'histoire d'Abu Ghosh, cf. Benny Morris [1990:191-204] ; voir également celle du village de Deir Yâsîn où la totalité de la population arabe fut massacrée par les groupes militaires juifs en avril 1948. 76 Avec la saisie des terres abandonnées par les populations arabes, la superficie des terres agricoles a considérablement augmenté du fait de la redistribution de celles-ci aux exploitants juifs des kibboutzim et moshavim. 75
Chapitre deux Tableau 9- Croissance des anciennes localités agricoles de la plaine côtière (1948-1967)
Localités Nahariyya Pardes Hanna Hadera Netanya Ra'ananna Kefar Sava Herzliyya Hod HaSharon Ramat HaSharon Rishon le Sion Nes Ziona Rehovot Petah Tiqwa 1948 1952 1 700 2 600 11 800 11 600 5 900 5 500 3 500 3 500 1 100 10 400 2 300 12 500 21900 1967 9 000 5 500 21 000 26 500 9 000 16 900 18 100 12 600 7 600 20 500 9 500 23 000 41 000 20 200 10 000 30 000 57 800 11 600 22 200 35 600 12 400 15 400 40 000 12 000 34 000 73 500
source: Karmon Y., 1971, Israel: a regional geography, London: Wiley-interscience, p.91. Avec l'instauration de la politique des ma'aboroth, de nombreuses colonies agricoles dans la périphérie de Tel Aviv principalement, ont accédé au statut de localités urbaines. L'arrivée de nouvelles populations aux activités économiques non agricoles a diversifié le tissu socioprofessionnel préexistant et conduit ces lieux dans un processus d'urbanisation des plus intenses. En 1948, les treize localités mentionnées ci-dessus ont connu une augmentation globale de leurs résidents supérieure à 74 000, et en 1952, celle-ci a avoisiné les 180 000. A la fin de cette première période, à l'échelle de l'Etat, la politique d'aménagement de l'espace présente quelques résultats intéressants. Premièrement, la politique de déconcentration du district de Tel Aviv se réalise au profit de sa périphérie -comme nous l'avons souligné précédemment- mais aussi des espaces septentrionaux et méridionaux du pays. La politique de sécurisation des espaces faiblement peuplés d'Israël prend forme. Entre 1950 et 1953, ces espaces limitrophes ont rassemblé plus d'un quart de l'ensemble des nouveaux venus alors qu'à peine plus de 15% des migrants de la grande vague migratoire de 1948-1949 s'y étaient installés. La mise en oeuvre d'une politique de répartition de la population constituait un réel défi pour les autorités. A la différence des Etats industrialisés d'Europe, comme l'a souligné Sitton, il s'agissait dans le cas israélien de faire venir des capitaux et des hommes et non pas simplement de maintenir en place des populations par l'apport massif de fonds et autres avantages financiers. A contrario, le cas israélien avait comme avantage d'inciter à l'installation, dans des régions peu hospitalières, des groupes de populations qui n'avaient pas toujours de
liens dans le pays. I.1.2.3 Densification des espaces ruraux et sécurisation des frontières
Le milieu rural a également nettement profité de la politique d'orientation des nouvelles populations dans les espaces peu peuplés d'Israël. Au cours de sa première décennie, le pays a vu la part de la population rurale passer de 15 à 22%. Cette croissance, certes de moyenne amplitude, a toutefois permis d'engager le pas vers une dispersion de la population. La tentative de diffusion de la population juive s'est réalisée à travers la création de colonies rurales. % 19,9 31,4 46,8 1,9 100
Le Néguev avec une superficie représentant près de la moitié du territoire d'Israël a constitué, en tant qu'espace sous-occupé et frontalier, un des autres objectifs de peuplement des décideurs israéliens. L'aridité de cet espace méridional a été le principal obstacle à la colonisation. Les premières tentatives ont consisté en la relève de la ville de Be'er Sheva. Avec à peine plus de 5 000 habitants essentiellement arabes avant 194879, tous partis au cours de la guerre, la transformation de cette cité aux portes du désert en capitale administrative et économique du Néguev a permis un rapide essor démographique de la région. De nombreux immigrants originaires d'Afrique du Nord s'y sont installés et fin 1950, la population s'élevait déjà à 8 300 personnes et a atteint les 20 500 en 1955. Outre les ressources en cuivre, phosphates et autres sels minéraux de la mer morte, le développement économique de cette région a tenu essentiellement en l'aptitude des Israéliens à amener l'eau jusqu'au coeur du désert. Ainsi, parallèlement au programme de répartition de la population dans le Néguev a été Le terme est ici employé dans la lignée du concept de distribution primatiale tel que l'a défini Peter Haggett dans son ouvrage L'analyse spatiale en géographie humaine, [1973 :118] et Denise Pumain, qui dans son ouvrage La dynamique des villes [1982 :18], envisage les villes « primatiales » comme des villes dont « la zone d'influence, considérablement étendue, dépasse le cadre national, et contribue donc à agrandir leur population ». Cette dernière conception designe parfaitement la situation de Tel Aviv s'inscrivant dans une logique métropolitaine « alimentée en population et autres sources de croissance » par les rése Localisé au sud du Lac de Tibériade entre la vallée du Jourdain et le mont Guilboa à l'ouest, cet espace a connu dès l'après-guerre une nette croissance de la population avec un quadruplement de celle-ci au cours de la première décennie d'Israël. Cette augmentation de population juive s'est faite notamment grâce à la création de cinq moshavim essentiellement peuplés de nouveaux immigrants. La ville de Beth Chéan, majoritairement habitée par de nouveaux arrivants employés aux travaux agricoles dans les villages avoisinants a largement profité de cette politique d'aménagement pour développer sa population. Beth Chéan rassemblait les 9/15 de la population juive de sa région en 1958 [Dov Nir, 1968]. Chapitre deux élaboré le Plan national d'irrigation qui, dès les années 50, prévoyait en premier lieu la canalisation des eaux du Yarkon (qui se déverse dans la mer à hauteur de Tel Aviv) vers le désert. Cette tâche a constitué et constitue encore le principal défi qu'Israël doit relever pour développer cette région80. Avec la mise en place des premiers plans de répartition de la population se sont faits jour les prémices d'une géographie ethnique de la population israélienne. Comme l'indique le tableau 11, pour la période 1956-1958, les Orientaux ont été majoritairement installés dans les espaces de développement. Plus des deux tiers des Juifs venus d'Afrique du Nord y ont été affectés tandis que les Hongrois, par exemple, se sont répartis autant dans ces zones reculées du pays que dans la bande côtière. A l'argument qui dénonçait, face à ces pratiques d'orientation des nouveaux arrivants, une discrimination ethnique fut opposée l'histoire migratoire du yichouv. Les responsables de l'agence juive ont expliqué ces disparités de répartition des nouveaux immigrants par le fait que les Ashkénazes entrant en Israël disposaient, du fait des premières aliyoth, d'un réseau relationnel plus important que celui des Orientaux, ce qui leur permettait de trouver plus aisément à se loger aux côtés de leurs prédécesseurs. Les données produites dans les travaux de Sitton semblent attester de cet état de fait. Le cas récent des immigrants russes montre que la faiblesse de leur présence dans les espaces de développement semble s'expliquer par leurs réseaux familiaux puisque près de la moitié d'entre eux ont trouvé un foyer d'accueil auprès de parents, essentiellement dans la région de Tel Aviv. Cependant, ces premiers mouvements de protestation signifièrent, comme l'explicitera S.N. Eisen , l'émergence du « problème ethnique » en Israël. En termes de mobilités, ces tensions ont poussé certains Orientaux à une ré-émigration interne en direction des quartiers défavorisés de Tel Aviv et de Haïfa. Dans la seconde moitié des années cinquante, la politique de dispersion de la population juive par la création de colonies agricoles a été progressivement stoppée du fait d'un appauvrissement des ressources en terres et en eau [Schachar, 1985 :200]. A partir de cette période, la politique d'aménagement territorial s'est orientée vers un développement des espaces urbains d'Israël. Pour l'anecdote, soulignons que relever ce défi a toujours été pour Israël un objectif de premier ordre notamment pour une raison : « maîtriser le désert » permettait de lutter contre la congestion de la bande côtière car, comme le dit Sitton, « celle-ci pourrait, en outre, conduire au rétrécissement dangereux de la vie future du pays et diminuer ainsi les possibilités d'absorber de nouvelles vagues d'immigrants, et notamment les juifs d'URSS si un jour ils étaient autorisés, comme on l'espère, à partir. » [1963 :179-180].
58 Israël : Un territoire construit sur le binôme Immigration/Geostrategie Tableau 11 - Installation des immigrants selon leur pays d'origine (1956-1959)
Du 1-1-1958 Octobre 1956-Avril 1958 au 31-3-1959 Lieux d' installation Total Total Pologne Hongrie URSS Egypte Afrique du Nord Zones de développement 45,1 46,8 37,8 30,1 14,6 55,6 67,4 Bande côtière 19,1 17 22,5 28,5 14,9 17,2 8,5 Kibboutzim 6,4 5,1 4,7 4 8,5 4,1 3,1 Moshavim 4,6 4,2 3,8 5,7 3,5 4,2 4,9 Aliyah des Jeunes 0,5 1,2 0,6 0,6 0,8 2,5 Auprès de parents 18,7 20,2 23,8 25,1 48,5 15 12,2 Autres 5,6 5,5 6,8 6 10 3,1 1,4 100% 100% 100% 100% 100% 100% 100% Nombre d' immigrants 38 500 94 557 35 135 8 223 1 781 13 655 24 398 (a): octobre 1957-avril 1958 seulement
. source: SITTON S., 1963, Israël : immigration et croissance, Paris: Cujas, p.178. Perse(a) 66,1 12,9 2 9,9 0,4 7,7 1 100% 2 817 Autres 27,1 9 14,9 1,1 2 30,2 15,7 100% 8 548 I.2
Les « villes de développement », la réponse à la dynamique Immigration/Edification nationale
L'affaiblissement de la dynamique migratoire après 1951 a permis aux autorités israéliennes de repenser la planification de la politique de peuplement. Dès cette période, un nouveau plan d'aménagement sur la création de villes dites de développement fut proposé. Ce plan, qui ne devait pas s'appliquer uniquement à de nouvelles villes, mais aussi à des espaces urbains préexistants, succédait donc aux précédents plans avec toutefois la particularité d'être très inspiré des positions des leaders sionistes du début du siècle. Pour exemple, l'un des célèbres "Neinsager" russes, Menahem Ussishkin, avait, comme président du Fonds national juif, défini dès 1904 dans son livre "Notre Programme", la nécessité de la création d'une infrastructure urbaine pour les futurs immigrants [Efrat, 1989:3]. La décision de relever ou de créer des villes afin d'accueillir les immigrants et de contrôler l'ensemble du territoire rompait donc avec la politique des années 1948-1951 qui s'était caractérisée par une "option rurale" de l'intégration de la population. Sur un plan idéologique, la politique des villes de développement signifiait donc la perte d'influence du modèle d'intégration qui voyait dans l'abandon des espaces urbains, qui avaient été les lieux d'atroces persécutions, et dans le retour à la terre, la voie d'une nécessaire refonte du peuple juif dans son nouvel Etat. La réalité migratoire du pays était la principale cause de ce revirement idéologique. L'importance de la vague migratoire des années 1948-1951 avait saturé les capacités d'accueil du milieu agricole et devenait nécessaire de réorienter les migrants vers de nouveaux espaces81 L'option choisie fut donc celle de la création de villes de développement où les familles immigrantes trouveraient dans les logements publics construits par la société nationale Amidar, des structures d'accueil correctes et où ces nouveaux Israéliens devaient s'insérer dans le marché de l'emploi impulsé par le soutien au développement économique également apporté par l'Etat.
I.2.1 Une politique de « villes nouvelles » en Israël
Elisha Efrat qui a étudié avec rigueur la politique des villes de développement a rappelé les différentes phases de ce programme. En premier lieu, entre 1949 et 1951, ce sont essentiellement d'anciens noyaux urbains qui ont profité de cette politique : Be'er Sheva étant considérée comme la "mère" des villes de développement. dès 1949 un projet de développement de la population, Safed, Tibériade, Afula, Acre, Ramla, Yavne, Ashqelon, Bet Chéan et Lod ont été progressivement dotées d'une variété d'aides visant à inciter l'installation de populations et le développement économique. Ainsi, comme le montre la typologie des villes de développement réalisée par E. Efrat, seules Qiryat Shemona, Bet Shemesh, Hatzor, Or Aqiva et Qiryat Malachi ont été véritablement fondées de toutes pièces. Sur les quinze villes créées entre 1949 et 1951, plus des deux tiers l'ont été sur des noyaux urbains préexistants qui étaient soit des lieux de vie juifs du yichouv comme Afula, soit des lieux mixtes où résidaient ensemble Juifs et Arabes comme Tibériade, soit des sites abandonnés par les Arabes comme Yavne ou bien des villes où résidaient encore une population arabe comme Acre. Globalement, parmi les vingt-sept villes de développement, onze seulement ont été véritablement créées. En accord avec l'idée d'une déconcentration des trois grandes villes et de leur périphérie, ces nouveaux sites urbains ont été implantés majoritairement dans les districts Nord et Sud. Chacun de ces deux districts a accueilli onze villes de développement, tandis que ceux des trois grandes villes n'ont que plus modestement, avec quatre localités, participé à ce programme. Comme nous l'avons souligné précédemment, dans le district Central (périphérie de celui de Tel Aviv) aucune véritable fondation n'a été réalisée. Lod, Ramle et Yavne sont des localités qui existaient avant 1948. Pour les deux autres districts il s'est agi de deux véritables fondations : Or Aqiva pour celui de Haifa et Bet Shemesh pour celui de Jérusalem. Fin 1951, la seconde phase de politique des villes de développement est symbolisée par "l'accalmie migratoire" qui s'installe entre 1952 et 1954 avec seulement 54 000 immigrants contre les 685 000 des années 1948-1951. Seules cinq villes seront fondées. Dans la ligne politique qu'était la conquête du désert, quatre des cinq nouvelles villes ont été implantées dans cette zone aride (Eilat, Ofaqim, Sderot et Yeroham). Plusieurs milliers de Juifs d'Afrique du Nord et d'Asie y ont été installés par l'agence juive, notamment ceux venus d'Irak avec l'opération Ali-Baba82. La reprise d'une forte immigration dès 1955 amène le gouvernement à accélérer sa politique de développement en instaurant l'opération "du bateau à la zone de développement". 82 Entre mai 1950 et juin 1951, la majorité de la communauté juive d'Irak a été, après de longues tractations, transférée en Israël.
60 Israël : Un territoire construit sur le binôme Immigration/Geostrategie I.2.2 Un bilan contrasté
Sur le plan de la croissance démographique, le succès de ces créations est variable. Au recensement de 1961, aucune des villes de développement n'a atteint le niveau de peuplement qu'avaient défini les aménageurs. Sur les douze villes qui devaient regrouper un minimum de 20 000 habitants, seules six avaient déjà atteint ce chiffre83. A la lecture de cette liste, on note que ces six villes ont toutes été développées sur des sites arabes, juifs ou mixtes préexistants. A la base inférieure de la hiérarchie urbaine, en 1961, parmi les cinq villes de développement qui devaient constituer le groupe des villes de 4 à 8 000 habitants, seule Qiryat Malachi, avec 4 630 habitants avait atteint cet objectif. La plus ou moins grande réussite de la planification de la croissance des villes de développement tenait dans la diversité des contextes, liés à l'origine géographique des immigrants, à la structure de l'hinterland agricole de la ville de développement et à la plus ou moins grande implication politique de l'Etat. Histoire d'une ville nouvelle
« Arrive à Haiffa un bateau d'immigrants nordafricains qui ne se doutaient sans doute pas être les passagers du Mayflower du Néguev ; la prévenance des autorités de l'intégration les avait en effet choisis pour constituer le tout premier noyau d'une ville nouvelle dans le désert, alors qu'ils avaient rêvé de jouir d'une éternelle béatitude dans les murs de Jérusalem. On les fit monter dans des camions qui mirent le cap sur le Néguev. On arriva enfin sur les lieux élus : un désert de sable et de rochers et le hurlement des chacals, au lieu des célestes harmonies et des trompettes de la Rédemption. Nos héros, du coup, refusèrent de descendre : qu'on les amène n'importe où ailleurs, mais, à coup sûr, pour rien au monde, ils ne voulaient de ce désert Après bien des palabres et des essais d'explications qui se heurtaient au mur d'un refus olympien, l'un des responsables crut expédient d'organiser une mise en scène : des coups de feu retentirent dans la nuit et l'on fit croire aux immigrants que les Arabes attaquaient. En moins de temps qu'il ne faut pour le dire, les camions furent libérés et Dimona, car c'est d'elle qu'il s'agit, accueillit ses premiers habitants ; ceux-ci enracinés maintenant dans l'endroit, heureux et fiers de leur entreprise de bâtisseurs d'une ville dans le désert, et de leur réussite, sont les premiers à raconter leur mésaventure et les premiers à en rire aujourd'hui. Chouraqui A., 1987, Histoire des Juifs en Afrique du Nord, Paris : Hachette (Littérature), p.488. Beaucoup d'immigrants notamment d'Afrique du Nord, n'ont pas accepté la politique dite "du bateau à la ville de développement". Leur refus de vivre dans des espaces périphériques où le sous-emploi était particulièrement élevé et la qualité des logements inadaptée (les appartements étant souvent trop petits pour des familles orientales au nombre d'enfants élevé), s'est concrétisé par une mobilité interne importante. Sur la période 1956-1961 près d'un cinquième de la population israélienne s'est déplacé vers un nouveau lieu de résidence. Parmi ces migrants internes, les populations marocaines et tunisiennes ont largement participé au mouvement : 27,4% des immigrants marocains et 21,3% de ceux originaires d'Algérie et de Tunisie ont changé de lieu d'habitation [Bensimon, 1970 : 488]. Dans le cas des districts Nord et Sud, ces mobilités se sont réalisées pour les villages ruraux au profit des villes moyennes, bien souvent des villes de développement en plein essor, et depuis ces dernières en direction des capitales de districts ou des centralités urbaines du pays. Les enquêtes réalisées au début des années soixante par D. Bensimon auprès d'immigrants originaires d'Afrique du Nord ont montré que la principale des migrations 83 Si l'on intègre Tibériade et Lod avec un peu plus de 19 000 habitants. deux internes, avec 21,6% des mobilités, est celle qui a vu le déplacement de la ville de développement vers Jérusalem ou Tel Aviv, puis pour 19,2% de la ville de développement vers une autre ville de développement [1970 : 493]. Nombreux furent les immigrants qui quittèrent Yeroham ou Mitzpe Ramon pour Dimona et surtout Be'er Sheva. En Galilée, de mêmes logiques migratoires où les nouveaux arrivants ont quitté leur zone de développement pour les quartiers miséreux de grande ville comme Haïfa, ont été observées. En termes économiques, différents éléments clefs expliquaient les "ratés" de la politique des villes de développement. Premièrement la faible distance des villages et des villes de développement entre eux n'a pas permis la création d'aires suffisamment importantes pour dynamiser des activités viables, principalement sur le plan commercial. Dans le Néguev, la vision toute "christallerienne" de la région qui présida à la politique d'aménagement du désert, avec un dispositif de centralités urbaines hiérarchisées, allant de la petite localité villageoise à la grande ville -Be'er Sheva- a abouti, aux échelles les moins élevées du réseau, à une véritable compétition entre les différentes unités et a, par là-même, conduit à une dispersion (une neutralisation) des efforts de développement. Deuxièmement, le création d'unités urbaines en tant que "villes de services" n'a pas obtenu les résultats escomptés. Dans de nombreux sites, l'activité agricole environnante était trop restreinte pour soutenir un centre urbain et les logiques du milieu rural n'étaient pas en phase avec celles des aménageurs. D'une part, le milieu agricole (kibboutzim et moshavim) a préféré la diversité des choix offerts dans les grandes localités à ceux, plus réduits, leur étaient offerts à proximité et d'autre part, le mode d'organisation très centralisé des kibboutzim, où la politique visait à créer dans l'enceinte même de la colonie agricole les industries nécessaires à la valorisation de leurs productions ont contribué à faire des villes petites et moyennes des niveaux intermédiaires en stagnation, marginalisés [Karmon, 1971:93-94]. La faiblesse du niveau d'éducation et de qualification professionnelle des immigrants installés dans les villes intermédiaires n'a fait que contribuer à la stagnation de ces projets d'aménagement [Efrat, 1989:68]. Au début des années soixante, le bilan des opérations de développement est toutefois positif car l'un des buts premiers, la déconcentration de la population, est amorcé. Le terme hébreu d'Illith, synonyme de colline, sommet, signifie quand il est associé au nom d'une localité préexistante qu'il s'agit d'une localité juive qui, dans bien des cas, a été développée à proximité d'une localité arabe. ël territo mmigration Geostrategie Tableau 12 - Populations juive et non-juive dans le district Nord (1948-1961)
1948 1961 Population totale 144 000 337 100
Population
juive 53 400 194 300
Population non juive 90 600 142
800 Source: Statistical Abstract of Israel 1995, CBS, Jerusalem, pp.50-52
L'entrée dans la décennie soixante marque la fin de l'ère des villes de développement. La création de deux villes, l'une dans le nord, Karmiel (1964)85 et l'autre dans le sud, Arad (1965), est venue clore cette période de villes nouvelles en Israël. Face aux "ratés" constatés lors des précédentes fondations, les structures tant physiques que démographiques de ces deux nouvelles villes ont été repensées86, toujours en termes d'occupation des espaces inhabités et de « judaïsation » du territoire. Un des thèmes forts de la réorientation de la politique des villes de développement tenait dans le désir d'installer en premier lieu des populations juives qui avaient déjà résidé en Israël quelques années (des "vétérans israéliens"). Ces premiers résidents, essentiellement membres de kibboutzim et de moshavim, devaient constituer la structure socio-économique de la ville afin de pouvoir intégrer plus aisément les nouveaux immigrants. Parallèlement, une sélection des immigrants a été opérée en essayant de ne pas installer uniquement des membres d'une même origine géographique. A Karmiel et Arad, de nombreux Juifs européens et américains ainsi que quelques Nord-Africains ont été installés dans l'idée de réussir, enfin, dans ces espaces de développement, la "fusion des exilés". Cette tentative avait d'autant plus de chances de réussir que ces villes n'étaient pas pensées comme "des villes de services" pour l'hinterland agricole mais comme de vé s entités urbaines. Un soin tout particulier avait été apporté à l'élaboration d'un centre d'affaires [Efrat, 1989:106-110]. Le succès de cette planification a été incontestable. Arad et Karmiel ont connu une rapide ascension dans la hiérarchie urbaine d'Israël passant respectivement de la trentecinquième et trente-sixième place en 1965 à la dix-huitième et vingt-troisième place en 1980. "Malheureusement", ce nouveau mode de planification des villes nouvelles est venu trop tard. La conquête de la Cisjordanie et de Gaza suite à la guerre des Six-jours (1967) a signifié l'entrée dans une ère d'implantations orientées au-delà de la ligne verte et dédiées à l'ensemble de la population juive. Cette réorientation géographique des zones à développer a eu de graves conséquences sociales. II DE NOUVEAUX TERRITOIRES, UNE NOUVELLE VISION DE L'AMENAGEMENT TERRITORIAL
L'année 1967 constitue une date charnière dans la configuration géopolitique du Moyen Orient. Israël par sa victoire éclair sur les armées arabes lors de la Guerre des Six-jours a pris le contrôle d'une surface importante de territoires. La Cisjordanie et la bande de Gaza sont conquises, le plateau syrien du Golan et le désert égyptien du Sinaï sont également investis par l'armée israélienne et la totalité de Jérusalem est désormais sous contrôle israélien. Le choc émotionnel est grand au lendemain de cette guerre. D'une part, le revers subi est lourd à supporter pour les armées arabes, d'autre part, pour les Israéliens, la victoire, presque miraculeuse, de Tsahal et surtout l'accès retrouvé au Mur des Lamentations a fait naître un courant messianique qui n'a pas été sans conséquences dans cette région déjà fortement agitée. Pour quelles solutions devait opter Israël : celle du retrait, celle de la conservation des territoires conquis? Dès le lendemain du conflit, il s'est avéré qu'aucune véritable réponse ne serait donnée à cette question. L'agitation qui régnait autant dans le camp des vaincus que dans celui des vainqueurs ont toutes deux concouru à un statu quo politique. Devant la divergence des positions arabes quant à l'attitude à adopter face à l'Etat d'Israël, ce dernier a pratiqué la politique dite « du coup de téléphone » qui « consistait à attendre que les Arabes manifestent le désir d'échanger les territoires occupés contre la paix. »87 [Meyer, 1993:67]. Durant cette « attente », le gouvernement israélien a progressivement lancé une politique d'implantations dans les territoires conquis même s'il s' affichait prêt à négocier et alors qu'il allait à l'encontre de la Résolution 242 des Nations Unies, laquelle demandait le retrait israélien des territoires récemment conquis88. Cette attitude a progressivement conduit Israël vers une situation que les Israéliens ont défini eux-mêmes comme une annexion « en douce » qui, sans être une annexion de jure, mettait les pays arabes et la communauté internationale dans son ensemble devant les faits accomplis [Kapeliouk, 1975:18]. La pratique de « l'attentisme dynamique » s'est révélée être une erreur stratégique car en octobre 1973, le jour de Kippour, l'attaque lancée par l'Egypte et la Syrie a démontré comme l'a dit A. Nasser, humilié par la défaite, était tenté par une reprise des armes rapides contre Israël, avec le soutien logistique de l'URSS, tandis que Hussein de Jordanie semblait plus enclin à négocier rapidement aves les Israéliens. La « voix du caïre » pesa plus lourd dans les pourparlers entre pays arabes. A la conférence de Khartoum (Août 1967), les treize chefs d'Etat arabes alors réunis, signifièrent clairement à Israël, par une déclaration commune, que sa politique « d'attente d'un coup de téléphone n'était qu'un Château en Espagne [pipe dream] » [Sachar, 1996 :673-677].
88 Résolution
vot
ée le 22
novembre 1967.
Israël : Un territoire construit sur le binôme Immigration/Geostrategie
Deux grandes périodes caractérisent donc la planification du territoire après la Guerre des Six-jours : celle de l'annexion « en douce » puis dès 1977, celle « par conviction ». II.1 L'annexion « en douce » En Israël, la lecture de l'espace a été totalement modifiée par les conquêtes de 1967. La politique des villes de développement qui avait fait l'objet de nombreuses études et retenu l'attention des gouvernants israéliens au cours des vingt premières années d'existence de l'Etat s'est brusquement retrouvée hors d'actualité, tous les regards étant tournés vers les nouveaux territoires. La lecture de l'espace fut avant tout stratégique. Au lendemain du conflit armé, la nécessité de s'assurer des frontières sûres primait chez les dirigeants israéliens. Pour certains, la sûreté ne s'envisageait que par la conservation de tous les territoires conquis ; pour d'autres, il ne s'agissait que de négocier, du fait de la victoire, quelques rectifications ures du tracé des frontières [Dieckhoff, 1987 :28]. Un consensus entre ces différents points de vue, reflet de l'éventail militaro-politique du pays, a été trouvé dans le Plan Allon. La proposition d'Ygal Allon, alors ministre du Travail, visait à aménager le territoire de manière à protéger Israël d'éventuelles menaces militaires en créant une zone tampon, constituée d'implantations agricoles et de camps militaires, le long de la frontière jordanienne. Cette politique était en fait la reproduction du modèle de contrôle du territoire mis en place dans les années 1949-1951, empreint de la conception socialo-sioniste du « nécessaire retour à la terre ». La stratégie de maîtrise du territoire mise en place par les travaillistes a reposé sur « l'insertion par l'évitement ». William Harris a résumé cette politique en soulignant que « la colonisation israélienne dans les territoires occupés ne peut être dissociée de l'exode des réfugiés qui a accompagné et suivi la guerre de 1967 : le départ et l'arrivée de personnes sur les mêmes terres sont deux faces de la même médaille. »89. Dans le Golan, où seulement à peine plus de 10% de la population d'avant 1967 résidaient encore (soit environ 10 000 personnes dans le nord du plateau essentiellement), le gouvernement israélien a développé une présence juive sur l'ensemble du plateau en comblant ainsi l'espace vide laissé par la fuite des Syriens. Dix-sept implantations y ont été réalisées entre 1967 et 1973, laissant ainsi transparaître l'idée que les autorités israéliennes n'envisageaient pas à court terme la restitution du plateau [Kapeliouk, 1975:23]. Cette stratégie d'insertion par évitement fut répliquée à l'identique en Cisjordanie. Les implantations, en accord avec le Plan Allon, s'égrainèrent dans la vallée du Jourdain ; dans les espaces où résidaient quelques 85 000 Palestiniens avant le début des combats, douze colonies ont été fondées. Le Sinaï a accueilli moins d'une dizaine de colonies. La majorité d'entre elles étaient des implantations du Nahal90 (comme la majorité de celles du Golan, de la vallée du Jourdain et de Gaza) essentiellement localisées à la limite sud de Gaza. A la veille de la Guerre de Kippour, la majorité de ces colonies étaient passées au domaine civil, ce qui témoignait du faible empressement des travaillistes à se retirer du Sinaï. La ville de Charm el-Cheikh, haut lieu stratégique car située à l'entrée du détroit de Tiran qui ouvre sur le Golfe d'A , faisait même l'objet d'une implantation urbaine juive et avait été baptisée en hébreu Ophira. De plus, au début 1973, le mouvement de colonisation a marqué un temps d'arrêt du fait des préparatifs 89 90 Cité par A. Dieckhoff [1987:70] « Le Nahal, d'après les initiales de « Jeunesse Pionnière Combattante », est une formation militaire en vue de la création de nouveaux points d'habitations agricoles militarisées sur les frontières. » 65 Chapitre deux nécessaires à la construction de la ville de Yamit91, au sud de Rafah à l'entrée du Sinaï, seules deux colonies furent crées cette année-là [Kapeliouk, 1975:21-23]. La bande de Gaza constituait le seul espace où la stratégie de l'évitement était inapplicable. En effet, la très forte densité de population92 (bien souvent supérieure à 1 000hab./km2) n'a permis aux Israéliens d'établir que quatre colonies. Les sites d'implantation ont toutefois été choisis dans l'objectif de « rompre la continuité territoriale afin d'empêcher à l'avenir la réalisation d'un quelconque plan fondé sur le principe de l'autodétermination des habitants de la bande. » [Kapeliouk, 1975:21]. Progressivement, l'argumentation politique où s'entendait la planification du territoire comme une simple sécurisation des frontières est apparue de moins en moins persuasive. Le gouvernement mettait en place une politique clairement annexionniste. Dès lors, la question du « problème démographique » entre Arabes et Juifs s'est faite de plus en plus présente. En 1973, le général Dayan a exprimé clairement ses positions, qui reflétaient en grande partie celle du gouvernement, en affirmant à ceux qui s'inquiétaient de l'incorporation de près d'un million d'Arabes supplémentaires dans la population du « Grand Israël »93 que « les Palestiniens font partie de la Jordanie, leur avenir (physique) est ici, mais leur capitale reste Amman »94. Par cette déclaration, comme le rappelle A. Kapeliouk, « Dayan « résolut » ainsi, à sa manière, le problème en accordant le statut de citoyens étrangers (Jordaniens), incapables d'avoir prise sur leur destin et sur la politique qui les concerne, aux habitants des territoires palestiniens qu'il envisageait d'annexer. »95 [1975 :31]. Sur la scène internationale, la Détente entre les Etats-Unis et l'URSS, au début des années 1970, a constitué un événement politique majeur dans les projets annexionnistes du gouvernement. Golda Meïr a très rapidement compris que l'ouverture de l'URSS à l'émigration juive constituait une source de population inespérée pour développer les colonies96. Ainsi, par cet événement politique international, Israël a renoué avec la stratégie immigration/maîtrise du territoire (employée avec les villes de développement). Lors d'une réunion de nouveaux immigrants sur les hauteurs du Golan, en septembre 1971, Golda Meïr n'hésite pas à envoyer un signe fort aux nouveaux venus en déclarant : « La frontière se trouve là où habitent des juifs, et non pas sur un tracé de carte. »97. Le déclenchement de la Guerre du Kippour est venu mettre un terme, temporairement, à la politique d'incitation à l'installation dans les territoires occupés. Fin septembre 1973, Golda Meïr dut revenir de toute urgence en Israël car ses services de renseignements lui indiquaient d'inquiétants mouvements de troupes égyptiennes et syriennes alors qu'elle était en Europe sur les lieux d'une attaque terroriste palestinienne contre un train de Juifs soviétiques qui transitait par l'Autriche afin de se rendre en Israël [Bensimon, 1989:233]. Il s'agissait des prémices de la « guerre larvée » qu'allaient se livrer Palestiniens et Suite aux Accords de Camp David, cette ville fut évacuée et détruite par les Israéliens. En 1967, la bande de Gaza comptait 350 000 habitants sur les quelques 362km2 que constituait cette frange littorale de 45km de long et de 5 à 12km de large. 93 Au début des années 1970, l'éventualité d'une annexion des territoires conquis sous-entendaient la présence d'une population arabe de 1 500 000 pour 2 800 000 juifs, ce qui inquiétait bon nombre d'Israéliens. 94 Déclaration faite à la BBC citée par A. Kapeliouk [1975:31] 95 Dans son ouvrage, A. Kapeliouk raconte comment par cette déclaration, il fut envisagé de rattacher Gaza à la Jordanie. Rachad Ech-Chawa, ancien maire de Gaza, a ainsi été autorisé à aller chercher des passeports jordaniens à Amman et à les distribuer à son retour à la population [1975:31]. 96 Entre 1970 et 1979, plus de 138 000 juifs soviétiques ont émigré en Israël. 97 Cité par A. Kapeliouk [1975:21] 91 92 66 Israël : Un territoire construit sur le binôme Immigration/Geostrategie Juifs, où à la poursuite du mouvement de colonisation, répondaient des attaques terroristes palestiniennes contre la population juive en Israël ou dans le monde. Les trois années qui ont suivi la Guerre de Kippour ont été trè agitées politiquement sur la scène israélo-palestiniene. Golda Meïr et Moshe Dayan sont sévèrement critiqués pour les défaillances qui ont permis l'attaque arabe. En 1974, le climat de protestations pousse Golda Meïr et son gouvernement à la démission tandis que Yasser Arafat est reçu triomphalement par l'Assemblée des Nations unies. La société israélienne s'interroge et gronde ; l'accession au pouvoir de Y. Rabin n'apaise en rien le mécontentement de la population. L'hostilité envers les travaillistes est grandissante et se traduit par la perte des élections législatives de mai 1977. Après des décennies de pouvoir, les travaillistes s'inclinent devant le Likoud, la coalition de droite, aux accents nationalistes, que dirige Menahem Begin : une véritable révolution dans le monde politique israélien.
| 34,425
|
02/hal.archives-ouvertes.fr-tel-01934312-document.txt_8
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 10,534
| 16,798
|
159 l'article L. 132-1 du Code de la consommation relatif aux clauses abusives qui, en son cinquième alinéa, précise que « le caractère abusif d'une clause s'apprécie en se référant, au moment de la conclusion du contrat, à toutes les circonstances qui entourent sa conclusion ». 230. Dans le même sens, quoique sur le terrain prospectif, un auteur ne manque pas de relever la proximité de cette interprétation avec le nouvel article L. 1122-2 du Code civil proposé par le projet Catala et selon lequel « () la clause qui crée dans le contrat un déséquilibre significatif au détriment de l'une des parties peut être révisée ou supprimée à la demande de celle-ci, dans les cas où la loi la protège par une disposition particulière, notamment en sa qualité de consommateur ou encore lorsqu'elle n'a pas été négociée »273. Il en va de même en comparaison avec l'article 4 : 110 des Principes du droit européen des contrats, qui dispose qu' « une clause qui n'a pas été l'objet d'une négociation individuelle peut être annulée par une partie si, contrairement aux exigences de la bonne foi, elle crée à son détriment un déséquilibre significatif entre les droits et obligations des parties découlant du contrat, eu égard à la nature de la prestation à procurer, de toutes les autres clauses du contrat et des circonstances qui ont entouré sa conclusion »274. Enfin, l'article 1171 issu de la réforme du droit des contrats prévoit que « dans un contrat d'adhésion, toute clause qui crée un déséquilibre significatif entre les droits et obligations des parties au contrat est réputée non écrite »275. 231. Promise à un brillant avenir de par l'étendue de son potentiel régulateur276 et l'efficacité des sanctions instaurée par la loi LME277, on peut légitimement croire en cette disposition pour revigorer l'élimination des pratiques restrictives de concurrence. La démarche initiée par ce versant du droit de la concurrence entérine par ailleurs l'irréductibilité de la dépendance économique par les techniques protectrices du consentement. Elle légitime du même coup le 273 Cité par R. SAINT-ESTEBEN, op. cit., p. 1280, n°14. 161 Section 2 : Le renfort d'un ordre public prétorien stimulé par le droit du travail
232
.
Il arrive parfois que l'expression de la volonté subisse l'emprise de certaines contraintes de fait dont la soumission, par le Droit, s'avère aléatoire. Ayant pu observer l'irréductibilité de la dépendance économique par les techniques protectrices du consentement déployées par le droit positif, faut-il conclure à l'impuissance de la norme face aux restrictions du libre choix? La réponse est heureusement négative, à condition toutefois de bien s'entendre sur la stratégie à adopter. Les effets d'une dépendance économique synonyme de domination méritent assurément d'être jugulés, mais ce n'est pas nécessairement en s'attaquant aux causes du phénomène que l'on obtiendra en temps voulu les résultats les plus probants. 233. La législation sur les baux d'habitation nous en fournit la meilleure illustration. Tirant profit du manque de logements disponibles, certains propriétaires se trouvent en position de dicter leurs conditions à des individus ou des familles confrontés à l'urgence de trouver un toit. S'il fallait compter uniquement sur les nouvelles constructions ou les rénovations d'immeubles pour rétablir un rapport de force moins favorable aux bailleurs, il semble que l'on pourrait attendre encore longtemps l'avènement d'un marché de la location où la qualité et la quantité de l'offre puissent garantir au futur preneur les conditions d'une véritable négociation. Nonobstant l'opportunité des politiques d'augmentation du nombre de logements sociaux278, on mesure donc ici toute l'utilité d'un droit du bail caractérisé par une régulation de la substance des conventions via, notamment, un encadrement des augmentations, des loyers ou des facultés de résiliation à l'initiative des bailleurs279. De même, l'instauration d'un salaire minimum fixe une limite à la libre détermination du salaire par le marché de l'emploi 280. Plutôt que d'escompter de l'adéquation des offres 278 On pourrait bien sûr rétorquer que c'est encore du Droit, la mise en oeuvre des politiques publiques s'appuyant matériellement sur l'édiction de normes. Mais ce serait jouer sur les mots que de nier toute différence entre la régulation d'un échange centré sur l'encadrement de son contenu et la poursuite de ce même objectif par les tentatives d'assurer ab initio les conditions d'une négociation équilibrée. 279 La mise en perspective de ces deux manifestations d'une même ambition correctrice révèle l'opposition entre les interventions dirigistes pour la seconde et les législations d'inspiration néolibérale avec la première ; sur ce point voir J.-M. 162 d'emplois et de la demande de travail un niveau de rémunération suffisant, le législateur et les partenaires sociaux ont décidé de déterminer eux-mêmes le seuil en-deçà duquel la contrepartie à la prestation de travail est jugée insuffisante. Ces exemples suffisent à démontrer qu'il est des situations où il vaut mieux se refuser à lutter frontalement contre l'existence des éléments objectifs de fait pour, au contraire, tenter d'en contrebalancer les effets par la promotion d'éléments objectifs de droit ; on parlera alors d'une objectivation du contenu obligationnel de l'acte juridique 281. Même si elle ne dit pas toujours son nom, l'objectivation de l'acte juridique peut être observée dans la plupart des situations où les auteurs constatent une pénétration de l'ordre public économique au coeur des échanges marchands 282. C'est dire la fréquence et l'intensité du procédé lorsque l'on songe au développement qu'a connu le phénomène depuis plusieurs décennies. 234. Au sens le plus large, l'ordre public renvoie à la norme impérative dont les individus ne peuvent s'écarter ni dans leur comportement, ni dans leurs conventions283. Cette expression d'un intérêt supérieur affiche tantôt le visage d'un ordre public politique, tantôt les traits d'un ordre public économique. Dans le premier cas, le législateur veille à ce que le pouvoir créateur de la volonté ne vienne pas perturber l'intégrité des valeurs et des institutions qu'il considère comme fondamentales. C'est ce que Carbonnier désigne par l'image des « colonnes de la cité » afin d'y ranger « l'Etat, la famille et l'individu »284. La seconde manifestation de l'ordre public prend l'aspect d'une intervention étatique au coeur des échanges économiques dont elle entreprend de réglementer la substance285 : c'est l'ordre public dit « économique », que l'on présente classiquement comme l'ensemble des règles obligatoires dans les rapports 281 Rappelons que le contenu obligationnel exprime ce à quoi les parties se sont engagées, là où la force obligatoire renvoie à la question de savoir pourquoi les obligations véhiculées par l'acte juridique doivent être exécutées. Voir
Th. GENICON, La résolution du contrat pour inexécution, LG
DJ
- Bibliothèque de droit privé, Paris, 2007, tome 484,
n°54
. 282 Même si l'objectivation y est davantage présentée comme résultant de la loi que procédant de l'action du juge
. 283 G. CORNU, Vocabulaire juridique, PUF, Quadrige, Paris, 10e éd., 2013, p. 714. 284 J. CARBONNIER, Droit civil - Les biens - Les obligations, PUF, Quadrige, Paris, 22e éd., 2004, p. 2038, n°985. À
lumière du droit communautaire et de la Convention européenne des droits de l'hommes, certains auteurs complètent ce triptyque par l'affirmation d'un ordre public dit écologique, M. BOUTELET, J.-C. FRITZ, L'ordre public écologique, Bruylant, Bruxelles, 2006. 285 L. CADIET, «
Interrogations sur le droit contemporain des contrats ». in Le droit contemporain des contrats : bilans et perspectives : actes du séminaire de l'année universitaire 1985-1986, L. Cadiet, G. Cornu, (dir.), Economica, Paris, 1987, p. 7. 163 contractuels, relatives à l'organisation économique, aux rapports sociaux et à l'économie interne du contrat286. 235. Bien conscient que la liberté contractuelle n'empêche pas que l'inégalité de puissance économique aboutisse à ce que le plus fort dicte sa loi au plus faible287, il convient alors de rééquilibrer l'acte juridique par un apport d'éléments objectifs venant contrarier la dépendance économique en renforçant le pouvoir juridique de la volonté affaiblie 288. D'aucuns pourraient ressentir une certaine gêne à voir l'action modélisatrice du juge évoquée concomitamment à la formation de l'acte juridique. Il est vrai que la rencontre des volontés est avant tout l'affaire des parties à l'engagement, si bien que le déploiement de l'autorité prétorienne demeure le plus souvent envisagé lors de la phase d'exécution de l'acte juridique. 236. Pour autant, il ne faut pas oublier le poids des éléments objectifs de droit dans la prise de décision de l'individu. Tel que l'a parfaitement démontré le Professeur Hauser289 et comme nous l'avons souligné précédemment290, l'environnement juridique joue un rôle essentiel dans la constitution de la réflexion interne préfigurant la manifestation de la volonté de s'engager. Or, loin de se borner à l'examen des normes légales, la considération du droit positif dans le processus décisionnel s'entend également de la prise en compte des règles dégagées par la jurisprudence. Ce n'est d'ailleurs pas un hasard si certains manuels de droit des obligations font expressément mention d'un ordre public jurisprudentiel dans leurs développements relatifs à la licéité de l'opération contractuelle291. L'apport du droit du travail à la théorie générale de l'acte juridique peut alors tenir à la reconnaissance, et la défense, d'une pratique prétorienne marquée par l'immixtion du juge
286 G
. FARJAT, L'ordre public économique
,
LGDJ
- Bibliothèque de droit privé, Paris, 1963, tome 37, n
°
30. B. STARCK, H. ROLAND, L. BOYER, Droit civil, Les obligations, 2. Contrat, Litec, Paris, 6e éd.,1998, n°735. 288 J.-M. BAHANS, Théorie générale de l'acte juridique et droit économique, thèse Bordeaux, Presses universitaires Septentrion, Villeneuve d'Ascq, 1998, n°140, l'auteur en conclu que « l'ordre public réalise ce rééquilibrage notamment en réglementant le contenu du contrat ». 289 J. HAUSER, Objectivisme et subjectivisme dans l'acte juridique, thèse Paris, 1969, p. 89. 290 Voir supra, L'influence de la règle de droit sur la formation de la volonté, n°110 et s. 291 A. BÉNABENT, Droit civil : les obligations, LGDJ - Lextenso, Domat, Issy-les-Moulineaux, 14e éd. 2014, n°159 ; L. JOSSERAND, « Aperçu général des tendances actuelles de la théorie des contrats ». RTD civ. 1937, p. 12 : « entre les parties, le contrat tisse une trame obligatoire de plus en plus riche ; une foule d'obligations en naissent aujourd'hui qui n'en découlaient point jadis. Le plus souvent, ces
obligations de droits
nouveaux n'ont pas été
voulu
es
ni même envisagées par les parties, mais
elles sont incluses
de vive force dans le cadre contractuel par la loi ou par la jurisprudence
». 287
164 dans la substance des droits et obligations convenus les parties. On songe notamment ici au contrôle de la validité des clauses de sujétions292, et en particulier à la clause de nonconcurrence293, à la consécration d'un devoir d'adaptation des salariés à l'évolution de leur emploi 294, ou encore à la substitution d'un secteur géographique à la stipulation du lieu d'exécution du contrat de travail295. D'une manière plus générale, les développements qui vont suivre contribuent, croyons-nous, à légitimer, à la lumière du droit du travail, un renforcement de l'interventionnisme juridique au cours de l'exécution de l'acte juridique 296. C'est là la condition sine qua non pour une éventuelle transposition des solutions travaillistes au service d'une meilleure régulation des rapports de force entre cocontractants, et d'un l'encouragement à la pérennité de l'engagement dont l'une des parties tire les moyens de son existence. Il ne s'agit toutefois pas ici d'occulter les risques liés à l'interventionnisme judiciaire301. Nous sommes conscients que l'immixtion du juge dans la loi des parties peut, dans certains cas, 292 Voir infra, L'exigence proportionnalité dans la validité des clauses de sujétions, n°416 et s. Voir infra, n°420 et s. 294 Voir infra, La constitution de l'obligation d'adaptation en droit du travail, n°554 et s. 295 Voir infra, Un recours contestable à la clause informative, n°676 et s. 296 J. ROCHFELD, Les grandes notions du droit privé, PUF, Thémis droit, Paris, 2e éd., 2013, p. 442 et s. 297 Voir infra, L'apport du droit du travail au contrôle du pouvoir dans l'engagement bilatéral, n°395 et s. 298 Voir infra, Une appréciation extensive de l'impossibilité momentanée d'exécution en droit du travail, n°615 et s. 299 Voir infra, La tentative rationae materiae d'un rétablissement de l'équilibre initial, n°591 et s. 300 Voir infra, L'apport du droit du travail au contrôle de la légitimité de la rupture de l'acte juridique, n°822 et s. 301 Sur ce point, la doctrine publiciste et constitutionnaliste apporte un éclairage particulièrement intéressant, F. HOURQUEBIE, Sur l'émergence du contre-pouvoir juridictionnel sous la Ve République, Bruylant, 2001 ; voir également
M
.
TROPER, « Le bon usage des spectres – Du gouvernement des juges au gouvernement par les juges ». in Mélanges Conac, Economica, Paris, 2001, p. 49 ; J.-S. NAVARRO, « Standards et règles de droit ». RRJ 1988, p. 845. 293
165 menacer les pré des contractants302. Le droit du travail n'ignore d'ailleurs rien de ce danger d'instabilité juridique303. Pour s'en convaincre, il suffit d'observer les débats auxquels a donné lieu, pour prendre un exemple récent, la remise en cause de la validité de certaines conventions de forfait en jours par la chambre sociale de la Cour de cassation304. De la même manière, on ne saurait prétendre que l'intervention prétorienne sur le contenu contractuel donne nécessairement lieu à des arbitrages opportuns. En ce sens, la substitution, par la Cour de cassation, d'un secteur géographique à la clause mentionnant le lieu de travail, et sur laquelle nous reviendrons plus en détail305, paraît très contestable. Il ne faut ainsi pas perdre de vue que l'exercice de pouvoirs d'interprétation et de correction renforcés peut produire des effets variables, selon l'état d'esprit ou les orientations politiques de leurs titulaires306. Cela étant, nous verrons que le droit du travail offre néanmoins quelques-unes des manifestations les plus significatives et les plus convaincantes de l'importance du rôle correcteur du juge en matière d'engagements marqués par la vulnérabilité d'une des parties. La matière peut alors guider la pose des jalons nécessaires à l'admission d'un renfort de l'ordre public prétorien. Elle éclaire ainsi la fonction normative de cette tendance (I), tout en soulignant son modus operandi (II).
I. Une fonction normative soulignée par le droit du travail
238.
Qu'il s'agisse de la constater pour la déplorer ou de la reconnaître afin de mieux l'appréhender, la fonction normative de l'ordre public prétorien suscite, nous le verrons, des prises de positions divergentes 307. Sa justification tient toutefois à deux considérations essentielles que le droit du travail paraît aujourd'hui partager, là où le droit des obligations se montre davantage circonspect : l'admission du pouvoir créateur de la jurisprudence d'une part 302
Voir
infra
n°257
et s. A. MAZEAUD, « La sécurité juridique et la décision des juges ». Dr. soc. 2006, p. 744 ; B. TEYSSIÉ, « Sur la sécurité juridique en droit du travail ». Dr. soc. 2006, p. 703 ; P. MORVAN, « Le principe de sécurité juridique : l'antidote au poison de l'insécurité juridique? ». Dr. soc. 2006, p. 707. 304 G. PIGNARRE, « L'office du juge dans la sécurisation des conventions de forfait en jours ». RDT 2014, p. 746. 305 Voir infra n°674 et s. 306 Voir l'emblématique ouvrage d'E. LAMBERT, Le gouvernement des juges, Dalloz, Paris, 2005 (1921), observant
la résistance de la Cour suprême des États-Unis d'Amérique à l'émergence d'une législation sociale. 307 L'idée même que l'ordre public prétorien puisse se trouver investi d'une fonction normative n'a pour certains rien d'évident. 303 166 (A), la mise en perspective de l'objectivation prétorienne du contenu obligationnel de l'acte juridique avec l'impératif de sécurité juridique d'autre part (B). A. L'admission du pouvoir créateur de la jurisprudence 239. À l'ancien étudiant en droit, la formulation retenue rappellera probablement quelques souvenirs308. Maintes fois traitée, d'aucuns la qualifiant de lancinante309, la question prend néanmoins ici une coloration singulière puisqu'il s'agit de comparer les approches dont elle fait respectivement l'objet chez les civilistes et les travaillistes. 167 convient en ce sens de distinguer, tout en les réfutant, les arguments qui l'excluent aux motifs de son manque de légitimité (a), de ceux qui lui contestent un tel rôle en prétextant son infériorité aux autres sources de droit (b). a. Le rejet de l'illégitimité de la norme jurisprudentielle 241. Certains auteurs refusent catégoriquement à la jurisprudence la qualification de source de droit et choisissent de la ranger parmi les autorités en droit civil, au même titre que la doctrine313. À l'appui de ce positionnement, Carbonnier expose notamment que le jugement serait enfermé dans un statut constitutionnel destiné à l'empêcher de devenir règle de droit314, comme en dispose l'article 5 du Code civil interdisant les arrêts de règlement. Semblable prohibition, ajoute-t-il, ne serait rien d'autre qu'un corollaire du principe de la séparation des pouvoirs315. Il est néanmoins permis de ne pas partager cette opinion. 242. Si l'on s'accorde à voir dans un arrêt de règlement un arrêt applicable à un cas déterminé susceptible d'élaborer une règle elle-même applicable à de nombreux cas d'espèces analogues 316, le rempart érigé par l'article 5 du Code civil est cependant régulièrement contourné par la jurisprudence de la Cour de cassation317, et ce, dans des hypothèses que l'on aurait tort de limiter aux arrêts dits de principe. Quai de l'horloge, l'énoncé d'une solution rendue à propos d'un contentieux spécifique se fonde en effet sur des qualifications juridiques pouvant être mobilisées dans le cadre de litiges analogues, conférant ainsi à la décision un indiscutable degré de généralité318. Hébraud ne disait pas autre chose lorsqu 'il écrivait que l'article 5 ne prohibe aucunement à partir de la décision concrète et particulière, l'induction qui dégage dans un arrêt un principe susceptible de généralisation319. 313 J. CARBONNIER, op. cit., p. 267 et s J. CARBONNIER, op. cit., p. 273. 315 J. CARBONNIER, ibidem. 316 C. PUIGELIER, « La création du droit (Libres propos sur la norme jurisprudentielle) ». RRJ 2004, p. 18, n°3. 317 C. PUIGELIER, ibidem. 318
Sur ce point, l'apprentissage du commentaire d'arrêt est révélateur de la recherche de généralité dans la décision examinée. Loin de se borner à une reprise des éléments factuels contenus dans la décision, l'exposé du problème de droit exige de repérer les notions juridiques soumises à l'examen de la Cour de cassation
. V. par exemple J.-P. BRANLARD, Méthode de travail pour l'Introduction au droit et le droit civil, Gualino, Lextenso, Paris, 2013, 3e éd., p. 85 et s. 319 P. HÉBRAUD, « Le juge et la jurisprudence », in Mélanges Couzinet, PU Toulouse, Toulouse, 1974, p. 339. 314 168 243.
À cela, il est toujours possible de rétorquer qu'une pratique déviante ne saurait tenir lieu de règle. Mais l'argument tiré d'une méconnaissance du principe de séparation des pouvoirs n'emporte pas davantage la conviction. Par-delà l'idée d'une habilitation implicite du législateur qui justifierait le pouvoir créateur de la jurisprudence320, la dialectique du pouvoir législatif et de l'autorité judiciaire doit être bien comprise321. Contester à la jurisprudence le statut de source créatrice du droit procède à la vérité d'une lecture excessivement séparatiste de l'Esprit des lois322. Pour preuve, le propos de Montesquieu lui-même, affirmant que « pour qu'on ne puisse abuser du pouvoir, il faut que, par la des choses, le pouvoir arrête le pouvoir »323. Aussi, rompant avec l'image d'un strict cloisonnement, Eisenmann met-il plus volontiers l'accent sur la participation du juge à l'édiction de la norme, dans une logique d'équilibre entre les pouvoirs législatif, exécutif et judiciaire324. On assiste alors à ce que certains auteurs dénomment une collaboration fonctionnelle325, pour ce qui s'apparente ici moins à une séparation qu'à un partage des pouvoirs. Au rejet de l'illégitimité de la norme jurisprudentielle succède alors la récusation de son infériorité technique. b. La récusation de l'infériorité technique de la norme jurisprudentielle 244. Selon une doctrine désormais majoritaire, la véritable question que pose aujourd'hui la jurisprudence n'est pas tant de vérifier sa capacité à créer des normes que celle de son assimilation aux autres sources formelles, telles que la loi ou le règlement326. 169 subordonnée par rapport à la loi, qui conserve (heureusement) le pouvoir de la briser. À la racine même de cette faiblesse congénitale, il y a donc – source ou pas source – une absence de pouvoir créateur qu'expriment d'ailleurs tant l'article 4 que l'article 5 du Code civil »327. Peu importe donc que la jurisprudence produise de facto du droit, elle ne saurait en toutes hypothèses se voir reconnaître en droit un véritable pouvoir créateur328. 245. Ces arguments suscitent toutefois trois séries d'observations. Premièrement, rappelons que l'analyse n'est pas nouvelle puisqu'en 1919, Gény concluait déjà au rejet d'une telle prérogative329. Selon lui, les sources formelles désignent alors « les injonctions d'autorités, extérieures à l'interprète et ayant qualité pour commander à son jugement, quand ces injonctions, compétemment formées, ont pour objet propre et immédiat la révélation d'une règle, qui serve à la direction de la vie juridique »330. Le Professeur Géa observe que l'auteur subordonne ainsi la qualification de source formelle à plusieurs conditions cumulatives, parmi lesquelles l'absence de liberté de l'interprète et l'extériorité de la source par rapport à celuici331. Cependant, l'absence de liberté de l'interprète évoquée par Gény se heurte tout d'abord à la mobilisation par le législateur des standards juridiques 332. Ensuite, l'extériorité de la source s'accommode mal de l'autorité gouvernant les rapports entre la Cour de cassation, pour ne citer qu'elle, et les juridictions de niveau inférieur333. Au total, les exigences soustendues par ces critères ne permettent donc ni d'établir une frontière imperméable entre la loi et la jurisprudence, ni, par voie de cons quence, de refuser à la seconde le pouvoir créateur attribué à la première. 246. S'agissant, deuxièmement, de fonder la négation d'un pouvoir créateur de la jurisprudence sur son infériorité technique, l'affirmation rencontre à notre sens quelques difficultés. D'une part, la hiérarchie des normes conceptualisée par Kelsen nous enseigne que F. TERRÉ, Introduction générale au droit, Dalloz, Paris, 9e éd., 2012, n°360. Contra, P. MORVAN, « En droit, la jurisprudence est une source du droit ». RRJ 2001, p. 77. 329 « Je persisterai donc, quant à moi, à refuser de voir, en notre jurisprudence, une source formelle du droit privé positif, qui, à côté de la loi écrite et de la coutume, puisse jouir d'une force créatrice indépendante », F. GÉNY, Méthode d'interprétation et sources en droit privé positif, tome 2, LGDJ, Paris, 2e éd., 1996, n°146. 330 F. GÉNY, Méthode d'interprétation et sources en droit privé positif, tome 1, LGDJ, Paris, 2e éd., 1996, p. 237, n°91. 331 F. GÉA, op. cit., n°126 et s. 332
« Faire de l'absence de liberté de l'interprète un critère de la source formelle du droit positif conduirait à considérer que l'existence de notions-cadres, au sein de certaines dispositions légales, fait perdre à ces dernières leur qualité de règle de droit – ce que personne ne prétend », F. GÉA, ibidem. 333 « La règle juridique énoncée dans une décision judiciaire s'impose en principe, à l'avenir, à la juridiction même qui a statué et à toutes les juridictions inférieures », F. GÉA, ibid. 327 328 170 la validité des lois dépend de leur conformité à la Constitution, celle des actes administratifs, décrets ou règlements, résidant toute entière dans le respect de la règle légale. Pour autant, aucun auteur ne songe à tirer profit de la primauté de la loi sur le pouvoir règlementaire pour contester à ce dernier la faculté de créer du Droit. D'autre part, le raisonnement combattu s'appuie sur une représentation hiérarchique discutable des sources du Droit, dès lors qu'il s'agit de positionner la jurisprudence sur l'échiquier normatif334. En la matière, comme cela a été brillamment démontré, ce système pyramidal a induit en erreur335. Le Professeur Morvan propose d'y substituer un espace composé de trois plans successifs participant de concert à la mise en oeuvre de la norme juridique 336. Celui-ci rend plus aisée la mise en évidence de « l'imprécision naturelle » de la loi, qui « n' que médiatement applicable et requiert, pour produire effet, le relais d'une norme médiate qui la fasse accéder à une vie juridique effective »337, autrement dit un jugement. 247. Troisièmement, la suspicion que suscite la jurisprudence comme source de droit tiendrait à son incapacité à s'auto-légitimer 338. Dit autrement, la simple référence à la jurisprudence ne suffit pas à donner une base légale à sa décision339, ce à quoi la Cour de cassation semble au demeurant consentir340. C'est sans doute là l'argument qui parviendrait, à notre sens, à justifier de la meilleure des façons les réserves évoquées plus haut, sans toutefois s'avérer dirimant. Nous pourrions en effet mobiliser à nouveau le schéma de substitution proposé par le Professeur Morvan, pour avancer que la jurisprudence n'a nul besoin d'autre 334 Autrement dit, de lui reconnaître un pouvoir créateur. légitimité que celle qui s'évince du rôle médiatique qu'elle remplit, et sans lequel la règle abstraite serait dans l'incapacité d'atteindre son but. Mais il importe également de souligner que le système juridictionnel français se révèle moins hermétique à la règle du précédent jurisprudentiel, ou plus exactement à son influence, que l'opposition classique entre civil law et common law peut parfois laisser croire341. C'est ce que confirme l'affirmation en droit du travail du pouvoir créateur de droit de la jurisprudence.
2. Une affirmation encouragée par le droit du travail 248.
Contrairement à leurs homologues du droit des obligations342, les travaillistes mettent un accent tout particulier sur le rôle créateur de la jurisprudence343 qu'ils considèrent comme une évidence344. Certains s'interrogent même sur l'existence, et dans l'affirmative, sur le sens de politiques jurisprudentielles en matière sociale345. Sans peut-être devoir aller jusque-là, il reste que l'objectivation prétorienne du contenu obligationnel de l'acte juridique, dans le sens d'une meilleure appréhension des engagements marqués par un état de dépendance économique, encourage l'identification et l'admission de ce pouvoir créateur au sein de la théorie générale de l'acte juridique. En effet, si les manifestations de ce phénomène sont 341 J. GHESTIN, G. GOUBEAUX, M. FABRE-MAGNAN, Introduction générale, LGDJ, Traité de droit civil, Paris, 4e éd., 1994, n°482 et s. mentionnant « la généralisation de fait des précédents » ; voir également J.-A. JOLOWICZ, « La jurisprudence en droit anglais : aperçu sur la règle du précédent ». APD 1985, p. 105. 342 À quelques heureuses expressions près, J. GHESTIN, G. GOUBEAUX, M. FABRE-MAG , op. cit., n°504 et s., pour qui, « l'assimilation de l'interprétation judiciaire à la loi interprétée » conduit à admettre que « la jurisprudence est une source de droit au sens matériel du terme ». 343 Le Professeur Ray, par exemple, consacre un encart spécifique à la question, intitulé « Le rôle essentiel, et créatif, de la chambre sociale de la Cour de cassation », J.-E. RAY, Droit du travail, droit vivant, Éd. Liaisons, Rueil-Malmaison, 23e éd., 2014, n°67. S'interrogeant sur la figure du juge esclave de la loi, l'auteur rappelle d'abord les termes du Rapport annuel publié en avril 2011, « la chambre sociale a poursuivi pendant l'année 2010 le travail de construction normative entrepris les années précédentes, ajoutant petit à petit, au fil des espèces soumises à son examen, des pierres à l'édifice de sa jurisprudence ». 172 particulièrement vigoureuses dans la jurisprudence de la chambre sociale346, elles s'expriment également dans les décisions rendues par les chambres civiles de la Cour de cassation (a). Le parallèle qui trouve ici à s'établir porte également sur les justifications qui leur sont apportées, celles-ci dépassant le cadre spécifique de la relation de travail (b). a. Des manifestations communes 249. On prête au droit du travail, non sans raison, une dimension prétorienne singulière347. Pourtant, un examen comparatif entre droit du travail et droit civil incite à relativiser un tel particularisme348, tant il est de manifestations du pouvoir créateur du juge communes aux deux disciplines. Nous en retiendrons deux exemples issus d'une typologie établie par une voix autorisée : l'interprétation libre des dispositions légales et l'énoncé de règles par voie de dispositions générales349. 250. La liberté prise dans l'interprétation de certaines dispositions légales se signale par la discordance entre la loi et l'application qu'en fait le juge, soit que la jurisprudence donne à un texte un sens qui n'est pas celui résultant de sa lettre 350, soit qu'elle lui confère un sens contraire à celui qui résulte de la loi351. Pour le premier, le Président Frouin fournit l'exemple d'un arrêt de la chambre sociale ayant retenu une application extensive de l'article L. 1235-5 du Code du travail, en mettant en oeuvre la sanction prévue en cas d'irrégularité dans la procédure de licenciement, dans une hypothèse de licenciement sans cause réelle et sérieuse 352. Du côté du droit civil et plus précisément du droit de la responsabilité, les exemples d'une telle distorsion ne manquent pas, l'un des plus connus résidant dans l'utilisation de l'ancien article 1384 al. 1er du Code civil comme fond ement de la 346 Quelques auteurs allant même jusqu'à estimer « qu'il n'est pas exagéré de dire que si le législateur propose, le juge dispose dans les très nombreux cas où les textes sont imprécis », J.-E. RAY, ibidem. 347 « () le particularisme du droit français du travail tient au rôle essentiel qui est donné à la jurisprudence. C'est elle, plus que le législateur, qui définit les principes. Il devrait y avoir un "Code de jurisprudence" », A. MAZEAUD, « Droit du travail et bicentenaire du Code civil : autour des articles 1134 et 9 du Code civil, ou, du contrat à la personne ». 173 responsabilité du fait des choses353 et, plus récemment, d'un principe général de responsabilité du fait d'autrui354. 251. L'énoncé de règles par voie de dispositions générales, que l'on peine parfois, au regard des illustrations avancées, à distinguer de la formulation de principes fondamentaux 355 ou généraux356 du droit, occupe une place de choix dans l'affirmation du pouvoir créateur des juges. Le phénomène confirme à cette occasion la nécessité d'une interprétation moins rigoureuse de l'article 5 du Code civil 357. Or, ces énoncés peuplent indistinctement la jurisprudence de la chambre sociale et des chambres civiles de la Cour de cassation. En droit du travail, on trouve notamment 358 le principe de la liberté de la preuve en matière prud'homale 359, le rejet de la perte de confiance comme cause réelle et sérieuse du licenciement 360 ou encore le refus de reconnaître une valeur contractuelle à la clause déterminant le lieu de travail si celle-ci ne stipule pas que le salarié effectuera exclusivement sa prestation sur ce lieu 361. En matière civile, et pour ne retenir là encore que quelques exemples, on citera la nullité des promesses de mariage362 ou l'emblématique interdiction de s'enrichir sans cause aux dépens d'autrui363. À ce stade de la discussion, il n'est nul besoin de multiplier les références pour relever que le pouvoir créateur de règles de droit attribué classiquement au juge du travail, s'exerce également entre les mains du juge civil ; l'action normative de ces derniers partageant par ailleurs des justifications similaires. 353 Donnant ainsi à ce texte « un sens et une portée que ses rédacteurs n'avaient pas envisagés », J. GHESTIN, G. GOUBEAUX, M. FABRE-MAGNAN, op. cit., n°473. 354 Ass. plén. 29 mars 1991, Blieck, JCP 1991, II, 21673, concl. H. DONTENVILLE ; RTD civ. 1991, p. 541, obs. F. CHABAS ; voir également P. JOURDAIN, « Existe-t-il un principe général de responsabilité du fait d'autrui? ». RCA 2000, p. 5. 355 J.-Y. FROUIN, op. cit., p. 19. 356 GHESTIN, G. GOUBEAUX, M. FABRE-MAGNAN, op. cit., n°491. 357 « Le plus souvent, les règles d'origine jurisprudentielle sont énoncées à la manière dont peut l'être une règle élaborée de toute pièce par son auteur, c'est-à-dire par voie de disposition générale ou d'affirmation, sans démonstration, et sans (nécessaire) rattachement à une règle ou à un texte existant, en somme à la manière dont le serait un arrêt de règlement », J.-Y. FROUIN, op. cit., p. 21. 358 Pour d'autres illustrations voir J.-Y. FROUIN, ibidem
. 359 Cass. soc. 27 mars 2001, Bull. civ. V, n°108. 360 Cass. soc. 29 mai 2001, Bull. civ. V, n°183. 361 Cass. soc. 3 juin 2003, Bull. civ. V, n°185. 362 Cass. civ. 30 mars 1838, S. 1838, I, 492. 363 Cass. civ. 15 juin 1892, S. 1892, I, 291. 174 b. Des justifications partagées
252. Deux sortes de justifications peuvent être avancées au soutien du pouvoir créateur de la jurisprudence, les unes structurelles, les autres de nature conjoncturelle364. Ce sont surtout les premières auxquelles nous nous intéresserons ici. Précisons en outre que nous ne ferons pas état des justifications tenant à l'implication du juge dans la formation de l'identité des droits spéciaux et leur émancipation à l'égard du droit commun365. 253. La classification élaborée par le Président Frouin met en lumière le poids du contexte économique et social dans la construction prétorienne du droit du travail366, soulignant, d'une part leur fluidité et leur dynamisme et d'autre part l'importance des données factuelles et des situations de fait. La réceptivité du droit du travail à ces premiers indicateurs tient largement au fait que la discipline est appréhendée comme un outil au service d'une politique économique et sociale367. L'intérêt dont fait aujourd'hui l'objet la norme collective négociée et sa tendance à préfigurer l'adoption de dispositions légales en est l'une des nombreuses illustrations. Pourtant, rien ne dit que la théorie générale de l'acte juridique devrait tenir pour négligeables ces considérations, bien au contraire. 254. L'identification et le traitement par le juge des engagements volontaires, impliquant une partie dont la position de faiblesse découle d'une réduction du libre arbitre, elle-même consécutive aux circonstances économiques et sociales, commande une telle mise en perspective 368. De plus, rappelle le Président Jean-Yves Frouin, « la norme d'origine prétorienne, en raison de sa souplesse d'adaptation, de sa plasticité, est sans doute (peutêtre?) mieux à même de prendre en compte cette fluidité de la vie économique et sociale, sans les à-coups du droit légiféré, et de garantir une certaine permanence et stabilité du droit tout en permettant les évolutions nécessaires »369. Nous sommes ici au coeur de la logique d'anticipation à laquelle le droit du travail tente d'apporter sa modeste contribution. Plus 364 J.-Y. FROUIN, « Raisons de la construction prétorienne du droit du travail ». JCP S 2009, n°46-47, p. 14. « D'une part, le Code du travail ne règle pas toutes les questions propres, spécifiques, à la relation de travail, d'autre part, le droit civil se heurte au particularisme du droit du travail, ce qui ouvre des espaces très larges pour une construction prétorienne du droit du travail », J.-Y. FROUIN, op. cit.
, p
. 16. 366 J.-Y. FROUIN
, ibidem. 367 G
. LYON-CAEN, Le droit du travail : une technique réversible, Dalloz, Connaissance du droit, Paris, 1995, p. 5, note 13, cité par J.-Y. FROUIN, op. cit., p. 16. 368 Voir supra, Le danger d'une absence d'alternative satisfaisante lors de la conclusion du contrat, n°88 et s. 369 J.-Y. FROUIN, ibid. 365 175
large
ment
, la création prétorienne en droit du travail s'explique aussi par la sensibilité de la discipline aux données factuelles et aux situations de fait370. 255. Pour conclure, nous retiendrons donc qu'entre l'enseignement du droit du travail et celui du droit des obligations, la place accordée à la jurisprudence en tant que source de droit repose moins sur une altérité de leurs pratiques judiciaires, que sur des partis pris idéologiques. Partant, rien n'interdit de dépasser les réserves émises par certains manuels d'introduction à l'étude du droit, y compris lorsqu'il s'agit de s'interroger sur les rapports entre l'objectivation prétorienne de l'acte juridique et l'impératif de sécurité juridique.
B. La mise en perspective de l'objectivation prétorienne de l'acte juridique avec l'exigence de sécurité juridique 256. La notion de sécurité juridique renvoie classiquement à l'idée de prévisibilité du Droit pour les justiciables 371. Par
fois qualifiée de redondante
372
, la sécurité
juridi
que constitue néanmoins, et à première vue, une importante limite, mais non une interdiction
à
l
'objectivation
prétorienne de
l'acte juridi
que (1). L'exemple travailliste exhorte toutefois à relativiser la rigueur du cadre ainsi posé et à promouvoir, à l'inverse, le passage d'une irréductible opposition à la recherche d'une nécessaire conciliation (2)
. 1. Une objectivation limitée par l'exigence de sécurité juridique 257. Loin de se résumer à un voeu pieux, les déclinaisons que connaît en droit positif l'exigence de sécurité juridique constituent une première entrave à la portée du pouvoir créateur du juge (a). Le second frei
n
tient à
l'objectif, récemment affiché, d
'une modul
ation dans le
temps des effets des revirement
s de jurisprudence (b).
370 B. BOSSU, « Les situations de fait et l'évolution de la jurisprudence de la chambre sociale de la Cour de cassation ». Dr. ouvr. 1999, p. 94. 371 N. MOLFESSIS, Rapport sur les revirements de jurisprudence, remis à Monsieur le Premier Président Guy Canivet, Paris, 2004, p. 176 a. Les déclinaisons de l'exigence de sécurité juridique en droit positif
258. L'évocation des « déclinaisons » que connaît l'exigence de sécurité juridique en droit positif fait écho à l'absence de consécration expressis verbis de la notion sous la plume des magistrats. Tel que l'expose Monsieur Jean-Guy Huglo, « le principe de la sécurité juridique "à l'état pur" se rencontre rarement exprimé dans la jurisprudence de la Cour de cassation »373. Un constat identique peut être dressé au regard des décisions rendues tant par le Conseil constitutionnel374 que par la Cour de justice de l'Union européenne375, mais aussi par la Cour européenne des droit de l'homme376. En réalité, et pour ne retenir cette fois que la jurisprudence de la Cour de cassation, les seules hypothèses dans lesquelles est faite une mention expresse de l'exigence de sécurité juridique sont précisément celles où les juges rejettent le grief tiré d'une prétendue méconnaissance de la notion, estimant doctement que « la sécurité juridique ne saurait consacrer un droit acquis à une jurisprudence figée, l'évolution de la jurisprudence relevant de l'office du juge dans l'application du droit »377. 259. Quelles sont donc ces déclinaisons desquelles les auteurs infèrent l'existence d'un principe latent de sécurité juridique? Nous n'en donnerons que quelques illustrations, l'essentiel étant d'y percevoir les limites à l'action normative du juge. L'autorité judiciaire se trouve tout d'abord contrainte d'apprécier les demandes des justiciables en fonction du droit applicable au jour de leur introduction ou des faits invoqués à leur appui378. De manière semblable, la Cour de cassation entreprend ensuite de conformer ses décisions à l'exigence de clarté et de prévisibilité de la norme, encouragée dans cette direction par la jurisprudence de 373 J.-G. HUGLO, « La Cour de cassation et le principe de sécurité juridique ». Cah. cons. const. 2001, p. 82. F. LUCHAIRE, « Le sécurité juridique en droit constitutionnel français ». Cah. cons. const. 2001, p. 67, observant que le Conseil constitutionnel « n'a jamais utilisé l'expression "sécurité juridique" pour en faire profiter l'individu. Plus exactement, précise-t-il, l'expression n'apparaît qu'une fois (373 DC du 9 avril 1996), au profit non d'une personne mais de la délibération d'une assemblée locale ». 375 J.-P. PUISSOCHET, H. LEGAL, « Le principe de sécurité juridique dans la jurisprudence de la Cour de justice des Communautés européennes ». Cah. cons. const. 2001, p. 379 CEDH, 30 octobre 1998, F. E. c/ France, Rec. CEDH, p. 3332. Sur la notion de flagrant-délit, Cass. crim. 6 février 1997, Bull. crim. n°49 ; sur les délits de presse, Cass. crim. 4 avril 1991, Bull. crim. n°163. 381
Sur la déchéance de droit d'ester en justice des victimes du SIDA, consécutive à leur acceptation d'une offre d'indemnisation, Cass. civ. 2e 26 janvier 1994, Bull. civ. II, n°41 ; à propos du bref délai évoqué à l'article 1648 du Code civil en matière de vices cachés, Cass. civ. 1ère 21 mars 2000, Bull. civ. I, n°97. 382 Par exemple, sur la réduction d'un délai de prescription, Cass. civ. 1re 28 novembre 1973, n°71-13915, Bull. civ. I, n°329. 383 Ass. plén. 23 janvier 2004, n°03-13617, « mais attendu que si le législateur peut adopter, en matière civile, des dispositions rétroactives, le principe de prééminence du droit et la notion de procès équitable consacrés par l'article 6 de la Convention européenne de sauvegarde des droits de l'homme et des libertés fondamentales, s'opposent, sauf pour d'impérieux motifs d'intérêt général, à l'ingérence du pouvoir législatif dans l'administration de la Justice afin d'influer sur le dénouement judiciaire des litiges ».
384 M. FRIOCOURT, B. MONGIN, « Validation législative, imprévision contractuelle et principe de prééminence du droit ». LPA 2002, n°204, p. 4. 385 P. MORVAN, « En droit, la jurisprudence est une source du droit ». RRJ 2001, p. 96. 386 « Le juge français ne résiste pas dans cette
à la tentation de l'unité », J.-G. HUGLO, op. cit., rappelant les mots de Monsieur Christian Atias, pour qui, « au coeur de la culture juridique française, la diversité, la divergence des règles et de leur interprétation, la contradiction des décisions siègent comme une sorte de péché originel. L'unité retrouvée serait la réconciliation de la loi et du juge, réconciliation du droit et de la loi, réconciliation du droit et du juste peut être », Ch. ATIAS, « La Cour de cassation gardienne de l'unité du droit ». in L'image doctrinale de la Cour de cassation, La Documentation française, Paris, 1994, p. 73. 387 « () il faut considérer que la décision de revirer méconnaît les anticipations légitimes des justiciables à chaque fois qu'un comportement a été ou aurait pu être orienté par la solution que le revirement entend abandonner », N. MOLFESSIS, op. cit., p. 28 380 178 b. La modulation dans le temps des effets des revirements de jurisprudence 261. La controverse sur les effets nocifs des revirements de jurisprudence est ancienne388, et suffisamment connue pour que l'on puisse tenter ici de la résumer à grands traits389. Les difficultés suscitées par les revirements en termes de sécurité juridique se conçoivent aisément dès l'instant où l'on accepte de voir dans la jurisprudence une source de droit390. Tout le problème réside alors dans la menace que fait planer le revirement sur les prévisions des justiciables et, plus spécifiquement, sur celles des parties à une convention. 262. S'agissant du pouvoir législatif, on sait en effet que la loi nouvelle, par principe, ne dispose que pour l'avenir391 : les effets des contrats conclus antérieurement à la loi nouvelle, même s'ils continuent à se réaliser postérieurement à cette dernière, demeurent régis par les dispositions sous l'empire desquelles ils ont été passés392. Le principe souffre toutefois de notables exceptions. Tout d'abord, au plan de la hiérarchie des normes, ce n'est qu'en matière répressive qu'il se voit reconnaître une valeur constitutionnelle393, le droit civil n'étant pas lié par le principe légal de non-rétroactivité des lois394. 263. Ensuite, la sécurité juridique dont il est le vecteur n'est pas une fin en soi. Dit autrement, la sécurité juridique doit être conciliée une exigence de mutabilité du droit395. Si la volonté des parties doit en effet être respectée, de même que leurs prévisions légitimes, cellesci ne sauraient pourtant faire obstacle à l'action du législateur dictée et légitimée par la poursuite de l'intérêt commun. En témoigne la jurisprudence sociale du Conseil constitutionnel qui, propos des accords collectifs, a estimé que la loi ne pouvait remettre en cause leur contenu que « pour un motif d'intérêt général suffisant »396. De son côté, la Cour 388 P. VOIRIN, « Les revirements de jurisprudence et leurs conséquences ». JCP 1959, I, 1467 ;
A. BOLZE, «
La
norme jurisprudentielle et
son
revirement en droit privé
».
RRJ
1997
, p. 855. 389 Y.-M.
SERINET
,
«
Par elle, avec elle et en
elle? La Cour de cassation et
l'avenir
des revirements de jurisprudence »,
(
à propos
de la rétroactivité de la jurisprudence
). RTD civ. 2005, p. 329.
390 « Si on admet que la jurisprudence est une source de droit, on est inéluctablement amené à se poser la question de l'application de la jurisprudence dans le temps », Ph. 179 de cassation ne dit pas autre chose lorsqu'elle décide que le législateur peut, en matière civile et lorsque les mesures qu'il adopte sont justifiées par « d'impérieux motifs d'intérêt général », édicter des dispositions rétroactives, sans d'ailleurs que le principe de prééminence du droit et la notion de procès équitable garantis par l'article 6 de la Convention européenne des droits de l'homme et des libertés fondamentales ne s'y opposent397. 264. S'agissant de la jurisprudence en revanche, il faut avoir à l'esprit que la mutabilité du Droit qui en découle échappe aux justes limites posées à l'action du législateur. Nul besoin d'identifier, parfois sans certitude 398, la survenance d'un revirement pour observer la contribution du juge à l'évolution des règles de droit applicables 399. À l'instar des lois interprétatives, la règle formulée est présumée se trouver ab initio dans la loi. La norme ainsi « découverte » trouve donc à s'appliquer aux faits litigieux, y compris lorsque ceux-ci sont antérieurs à ladite règle 400. Toute la difficulté vient alors de ce que la jurisprudence, contrairement à la loi, ne se trouve soumise à aucune exigence de non-rétroactivité401. Or, « pour le justiciable, comme le souligne pertinemment le Professeur Radé, il importe peu de savoir si la règle nouvelle qu'on lui impose rétroactivement résulte de l'adoption d'une loi nouvelle ou d'un changement dans l'interprétation jurisprudentielle d'une loi ancienne »402. Pour combattre ces revirements « pervers »403, le rapport Molfessis s'est clairement positionné en faveur de la possibilité pour la Cour de cassation de moduler elle- même les effets dans le temps des revirements de jurisprudence 404. La Haute juridiction doit donc se poser deux questions successives : en premier lieu, celle de l'opportunité du revirement de jurisprudence 397 Cass. com. 14 décembre 2004, Bull. civ. IV, n°227 ; Cass. soc. 28 mars 2006, Bull. civ. V, n°128. Voir Ch. ATIAS, « Sur les revirements de jurisprudence », (à propos de la rétroactivité de la jurisprudence). RTD civ. 2005, p. 298. 399 X. LAGARDE,
« Jurisprudence et insécurité juridique ». D. 2006
,
p. 679
, « l'insécurité juridique ne vient pas spécialement des revirements, elle tient essentiellement au fait même de l'oeuvre prétorienne ». 400 CE Ass
. 16
juillet
2007,
Sté Tropic travaux signalisation
, JCP 2007, p. 33, note B. SEILLER
. 401 En matière de non-rétroactivité, « () alors que le législateur est soumis au contrôle du juge, la jurisprudence n'est soumise à aucun contrôle, si ce n'est un auto-contrôle, pour ne pas dire une autosatisfaction », Ph. MALINVAUD, op. cit., p. 316. 402 « Dans ces deux hypothèses, le litige est en effet tranché par l'application d'une règle de droit, pure ou interprétée, dont le justiciable n'avait pas eu connaissance au moment des faits et dont il n'a donc pas pu, par hypothèse, tenir compte dans ses prévisions », Ch. RADÉ, « De la rétroactivité des revirements de jurisprudence ». D. 2005, p. 989. 403 « () ceux qui soulèvent un problème sérieux de sécurité juridique marqué par une méconnaissance flagrante et injuste d'une légitime anticipation du justiciable », J.-L. AUBERT, « Faut-il "moduler" dans le temps les revirements de jurisprudence? J'en doute? », (à propos de la rétroactivité de la jurisprudence). RTD civ. 2005, p. 301. 404 N. MOLFESSIS, op. cit., p. 49, 2.5.2. 398 180 et en second lieu, le recours à une éventuelle modulation de ses effets dans le temps, autrement dit déterminer à quel moment il sera fait application de la solution nouvelle405. 265. Pour notre part, nous souscrivons à l'introduction d'un mécanisme de modulation dans le temps des revirements de jurisprudence, même si sa mise en oeuvre pourrait, sur certains points, s'avérer malaisée 406. Si l'outil doit être manipulé avec précaution 407, il donne aujourd'hui à la jurisprudence les moyens nécessaires pour légitimer son action normative, en l'entourant notamment des garanties semblables à celles qui assortissent l' expression de la règle légale 408. Le parallèle est en effet tentant, entre la mise en avant par le législateur d'impérieux motifs d'intérêt général au soutien d'une loi régissant rétroactivement les situations passées, et la réflexion qui devra guider les Hauts magistrats au moment de décider de moduler ou non dans le temps les effets du revirement opéré409. 266. Le discernement dont font preuve les juridictions nationales dans le maniement de cet instrument achève de nous convaincre de l'opportunité de sa consécration. Depuis l'avènement de la question prioritaire de constitutionnalité en 2008, la Constitution accorde aux juges constitutionnels la faculté de repousser les effets individuels et collectifs de l'abrogation d'une loi410. Le Conseil d'Etat s'est lui aussi rangé à cette analyse en acceptant 405 N. MOLFESSIS, op. cit., 2.5.3 et s. J.-L. AUBERT, op. cit., p. 303. 407 Voir infra, Une limite relativisée par le droit du travail, n°269 et s. 408
Certains auteurs vont même plus loin en proposant que « les innovations jurisprudentielles soient différées dans le temps, comme l'est le plus souvent l'application des lois nouvelles, pour que les choix rationnels s'opèrent au mieux. Cette rationalité donne à la jurisprudence une valeur plus forte que celle de la loi puisque les juges, devant motiver l'interprétation nouvelle, rendent ainsi la rège plus intelligible, plus stable aussi du fait de la palette limitée des motivations disponibles », M.-A. FRISON-ROCHE,
« À propos de la rétroactivité de la jurisprudence. La théorie de l'action comme principe de l'application dans le temps des jurisprudences ». D. 2005, p. 310.
On peut néanmoins se demander si le laconisme des motivations des arrêts de la Cour de cassation est vraiment de nature à rendre la règle plus intelligible qu'une loi précédée d'un exposé des motifs et d'une étude d'impact. 409 On peut ainsi attendre du magistrat qu'il « se détermine, d'abord, matière par matière, en étant guidé par le souci de préserver les attentes que des parties pouvaient légitimement avoir, puis qu'il met en balance l'intérêt d'une application de la règle nouvelle qu'il juge meilleure. La considération "d'impérieux motifs d'intérêt général", à cet égard, pourrait aussi bien jouer, alors, dans le sens de la rétroactivité nécessaire que dans celui d'une non-rétroactivité », X. BACHELLIER, M.-N. JOBARD-BACHELLIER, «
Les
revi
rement
s
de
jurisprudence », (à propos de la rétroactivité de la
jurisprudence
). RTD civ. 2005, p. 304. 410
L'article 62 de la Constitution dispose qu' « une disposition déclarée inconstitutionnelle sur le fondement de l'article 61-1 est abrogée à compter de la publication de la décision du Conseil constitutionnel ou d'une date ultérieure fixée par cette décision. Le Conseil constitutionnel détermine les conditions et limites dans lesquelles les effets que la disposition a produit sont susceptibles d'être remis en cause » ; voir, à propos de l'annulation du régime de la garde à vue, Décision n°2010-14/22 du 30 juillet 2010. 406 181 de différer les effets de l'annulation d'un acte administratif411. Dans une décision de 2008412, les juges du Palais royal sont allés encore plus loin en paralysant la rétroactivité de la règle issue d'une solution novatrice413. En droit privé, c'est par un arrêt du 8 juillet 2004 que la deuxième chambre civile a consenti à faire échec au principe de la rétroactivité de l'interprétation jurisprudentielle, en admettant que l'application immédiate d'une règle nouvelle de prescription « dans l'instance en cours aboutirait à priver la victime d'un procès équitable, au sens de l'article 6.1 de la Convention européenne des droits de l'homme et des libertés fondamentales »414. 267. Quelques mois plus tard, la chambre sociale voyait, une nouvelle fois415, évoquée la contradiction entre l'article 6.1 précité et l'exigence, rétroactive et à peine de nullité, d'une contrepartie financière à la clause de non-concurrence 416. Rejetant le grief, les hauts magistrats estimèrent, à rebours de toute modulation des effets du revirement de 2002417, que la nouvelle solution devait recevoir une application immédiate 418. Est-ce à dire que la chambre sociale s'interdit toute entorse à la rétroactivité de ses revirements? La réponse est heureusement négative. En 2010, à l'instar de la deuxième chambre civile, sa volonté de protéger le droit d'accès à un juge la conduisait à bloquer l'application immédiate de la règle résultant d'un revirement de jurisprudence419. Loin de toute distorsion dans le raisonnement 411 CE Ass. 11 mai 2004, Association AC! et autres, M. LONG, G. BRAIBANT,
P
. DE
VOLV
E,
B
.
GENE
VOIS,
P. WEIL
,
Les
grands arrêts de la
jurisprudence administrative, Dalloz, Paris, 19e
éd., 2013
, n°114
.
412 CE
Ass. 16 juillet 2007, Sté Tropic travaux signalisation, JCP 2007, p.
33,
note B
.
SEILLER. 413 À
la vérité
,
l'
arrêt
AC ! « règle seulement les effets de l'annulation contentieuse d'un acte administratif ; il ne concerne pas l'application dans le temps des revirements de jurisprudence », Ph. MALINVAUD, op. cit., p. 316 ; « moduler dans le temps les effets d'une annulation contentieuse peut n'apparaître que comme une forme particulière d'annulation partielle que le juge administratif a déjà, certes sous d'autres formes, mis en oeuvre », X. BACHELLIER, M.-N. JOBARD-BACHELLIER, p. 306. 414 Cass. civ. 2e 8 juillet 2004, n° 03-14717, 415 Cass. soc. 7 janvier 2003, n°00-46476, RDC 2003, p. 145, obs. Ch. RADÉ. 416 Cass. soc. 10 juillet 2002, n° 00-45135, Dr. soc.
2002
, p. 949, chron. R. V
ATINET
;
D. 2002, p
.
2491
,
note
Y. S
ERRA
; J
CP 2002, II, 10162
,
note F
. PETIT. 182 de la chambre sociale, la mise en perspective de ces deux solutions traduit une volonté de relativiser l'exigence de sécurité juridique. 2. Une limite relativisée par le droit du travail 268. Il est possible d'attribuer au virage de 2002 sur les conditions de validité des clauses de non-concurrence, le sursaut d'intérêt pour la modulation dans le temps des revirements de jurisprudence420. Cela n'empêche pas pour autant de relever en droit du travail les marques d'une intégration raisonnée du principe de sécurité juridique. Ce refus de faire de la notion le parangon de tout rapport obligationnel doit être salué. La relativité dont elle est l'objet en droit du travail incite à ne pas surestimer les menaces prétoriennes sur le contenu obligationnel de l'acte juridique (a). Surtout, elle encourage la mise en perspective d'une incantation aveugle de la sécurité juridique avec la permanence de certains déséquilibres contractuels (b). a. La nuance des menaces prétoriennes sur le contenu obligationnel de l'acte juridique 269. Voir dans le juge l'incarnation de la principale menace à la sécurité juridique des conventions est excessif jurisprudence 421. Tout d'abord, la publicité donnée aux revirements de méconnaissant les prévisions des parties est souvent inversement proportionnelle à la fréquence du phénomène, même s'il ne s'agit pas ici d'en contester les effets potentiellement dévastateurs. La rigueur impose de rappeler que les revirements inattendus demeurent heureusement l'exception. Nombre d'entre eux, comme le relevait le rapport Molfessis, ne trahissent aucunement les anticipations des justiciables422. « C'est sans doute l'application dans le temps des arrêts rendus par la chambre sociale de la Cour de cassation le 10 juillet 2002 en matière de clauses de non-concurrence qui a mis le feu aux poudres (
) »,
Ch. RAD
É
,
« De
la rétroactivité des revirements
de jurisprudence ». D. 2005, p. 988. 421
Comme le rappelle le Professeur
Denis
Mazeaud, « les Principes d'Unidroit et Européens n'ont pas peur du juge ; l'impératif de sécurité juridique s'accommode fort bien de la reconnaissance d'un pouvoir judiciaire qui s'exerce sur le contrat, que ce soit au stade de sa conception ou à celui de son exécution
», D. MAZEAUD, « À propos du droit virtuel des contrats : réflexions sur les principes d'Unidroit et de la commission Lando ». in Mélanges Cabrillac, Paris, Litec, 1999, p. 215. 422 N. MOLFESSIS, Rapport sur les revirements de jurisprudence, remis à Monsieur le Premier Président Guy Canivet, Paris, 2004, 2.3.1
, « tous les revirements de jurisprudence se saisissent, par hypothèse, de faits antérieurs à leur édiction, mais tous ne déjouent pas à l'identique les anticipations des justiciables. L'insécurité provoquée par l'application aux faits passés de la solution nouvelle varie en effet selon les situations. Tous les revirements n'ont pas de conséquences injustes ni ne désorganisent les secteurs économiques visés par la 183 270. Ensuite, il convient de noter que les revirements les plus lourds de conséquence tiennent en premier lieu à la mutation de l'ordre public légal lui-même, et non à la jurisprudence423. La loi nouvelle s'y appliquera avec une certaine rétroactivité, lorsque la survie de la loi ancienne s'efface devant l'
immédiate de la loi nouvelle venue uniformiser les situations contractuelles
424. Le phénomène connaît d'ailleurs une ampleur significative en droit du travail où, comme le rappelle l'auteur, l'ordre public social impose l'application immédiate des lois nouvelles aux contrats de travail en cours et conclus avant leur entrée en vigueur et a pour objet d'améliorer la condition ou la protection des salariés425. Si revirement il y a, celuici est donc avant tout rétrospectif 426, pressé par le souci d'anticiper les effets de la loi nouvelle. 271. Enfin, le sentiment d'insécurité occasionné par les revirements de jurisprudence semble en réalité inhérent à la confrontation de l'office du juge avec la complexité des sources du Droit427. 184 peuvent, à certaines occasions, venir opportunément compenser le déséquilibre qu'une valorisation excessive de la sécurité juridique ne manquerait pas, à l'inverse, d'entériner. b. La critique du déséquilibre entériné par l'exigence de sécurité juridique 272. Les arguments soutenant les réticences de la chambre sociale quant à la modulation dans le temps des effets de ses revirements de jurisprudence, notamment à propos des conditions de validité des clauses de non-concurrence, méritent une attention toute particulière. Dans un arrêt du 17 décembre 2004431, la Haute juridiction retenait ainsi que « l'exigence d'une contrepartie financière à la clause de non-concurrence répond à l'impérieuse nécessité d'assurer la sauvegarde et l'effectivité de la liberté fondamentale d'exercer une activité professionnelle [et que] loin de violer les textes visés par le moyen et notamment l'article 6 de la Convention européenne de sauvegarde des droits de l'homme et des libertés fondamentales, la cour d'appel en a au contraire fait une exacte application en décidant que cette exigence était d'application immédiate ». Pareil raisonnement nous semble devoir être érigé en modèle pour un encadrement de la portée du principe de sécurité juridique. 273. Loin de se réfugier sous le masque du juge simple interprète de la loi, la chambre sociale assume ici pleinement sa fonction normative en la mettant au service d'un rééquilibrage nécessaire du contrat de travail. Dire que l'application rétroactive d'une règle jurisprudentielle nouvelle déjoue les prévisions des justiciables n'est pas un argument en soi : il faut aussi se demander si ces prévisions doivent être légitimement protégées 432. Dans l'hypothèse d'un engagement conclu concomitamment à l'état dépendance d'une des parties, il n'est pas à exclure que le contenu des droits et obligations de l'acte juridique ait été unilatéralement déterminé par l'individu ou l'entité en position de force. Si ce risque, « le droit positif ne peut en tenir compte pour des raisons pratiques de sécurité juridique433, cela 431 Cass. soc. 17 décembre 2004, Lexbase Hebdo éd. soc. 2004, n°148, note Ch. RADÉ ; RTD civ. 2005, p. 159, note P.-Y. GAUTIER. 432 R. ENCINAS DE MUNAGORRI, « Faut-il différer l'application des règles jurisprudentielles nouvelles? Interrogations à partir d'un rapport ». RTD civ. 2005, p. 85, « () revient sans cesse l'idée selon laquelle le revirement, ou plus exactement l'application de la règle jurisprudentielle nouvelle ne doit pas "déjouer des prévisions" des justiciables. 185 ne signifie point que la théorie générale doive l'ignorer » 434. En présence d'une relation inégalitaire, de surcroît lorsqu'elle prend la forme d'un rapport de dépendance, il n'est plus à démontrer que la sécurité juridique, invoquée à l'appui de l'intangibilité des conventions435, a pour principale conséquence de perpétuer une situation de domination436. Ainsi conçue, la sécurité juridique se situe aux antipodes de la recherche d'une solution juste 437, là où à l'inverse elle devrait être conciliée avec une meilleure définition des obligations mises à la charge de celui dont la volonté n'a pu être véritablement entendue438. 274. Le maintien d'une application rétroactive du revirement sur les conditions de validité des clauses de non-concurrence s'inscrit dans la lignée de cette salutaire prise en compte du contexte entourant la formation de l'engagement. Comme l'affirmait ardemment Monsieur Pierre Sargos, alors Président de la chambre sociale, « la seule "prévision raisonnable" que peut faire le candidat à un emploi dont dépend sa survie économique est celle-ci : "ou j'accepte la clause sans contrepartie financière, ou bien je n'ai pas l'emploi" »439. C'est donc par le truchement de la nécessaire sauvegarde d'une liberté fondamentale, en l'espèce celle d'exercer une activité professionnelle 440, que la chambre sociale parvient à concilier la sécurité juridique 441, avec les impératifs dictés par la volonté de ménager l'exercice de 434 La théorie générale « doit embrasser aussi bien la réalité que les raisons pratiques qui conduisent à la méconnaître, s'en tenir à ce second élément pourrait amener, et a amené, des erreurs
regrettables », J.
HAUSER,
Objectiv
isme et subjectivisme dans l'acte juridique, thèse Paris, 1969,
n
°170. 435 « Le contrôle judiciaire de la morale contractuelle () doit demeurer mesuré, à peine de ruiner la sécurité contractuelle, le respect de la parole donnée, de devenir une incitation à la malhonnêteté et de construire un "truc" pour gagner des procès
», Ph. MALAURIE, note sous Cass. com. 27 février 1996, D. 1996, p. 520 436
« Dans les relations contractuelles inégalitaires, cette sécurité est, en réalité, la sécurité des économiquement puissants construits sur l'insécurité des économiquement faibles », J.-P. CHAZAL, « Les nouveaux devoirs des contractants : est-on allé trop loin? », in La crise du contrat, Ch. Jamin, D. Mazeaud (dir.), Dalloz, Paris, 2004, p. 125. 437 « La sécurité juridique recherchée par le positivisme a pour fonction de limiter l'arbitraire de l'Etat. certains droits, notamment chez les contractants en position de faiblesse. La même logique paraît avoir guidé le choix des Hauts magistrats lorsque ceux-ci ont, à l'inverse, décidé de paralyser la rétroactivité d'un revirement, afin de protéger le droit d'accès à un juge 442. Cohérente autant qu'exemplaire, la jurisprudence de la chambre sociale démontre donc avec succès que pour précieuse qu'elle soit, la sécurité juridique ne saurait être ni générale, ni absolue443. Cette admission d'une fonction normative de la jurisprudence trouve par ailleurs à se déployer en droit civil.
II. Une fonction normative opérationnelle en droit privé
275. L'action normative du juge peut trouver à s'exprimer par l'activation de standards juridiques (A). Toutefois, pour être effective, pareille collaboration entre le pouvoir législatif et l'autorité judiciaire doit reposer sur la conscience que l'objectivation prétorienne du contenu obligationnel de l'acte juridique demeure un instrument subsidiaire, à peine de scléroser toute action correctrice des magistrats sur le fondement des standards (B). C'est à cette condition que le juge osera, du moins faut-il le souhaiter, s'emparer des outils mis à sa disposition dans le cadre d'une théorie générale renouvelée, afin appréhender efficacement les situations de dépendance.
A
.
L'activation pré
to
rienne du standard juridique
276. Le recours au standard juridique traduit la prescription de normes de conduites impersonnelles venant guider la mise en oeuvre du contenu obligationnel de la convention. La définition du standard que propose le Vocabulaire juridique Cornu se singularise par l'accent mis sur la dimension fonctionnelle de cette notion, conçue comme une norme souple fondée sur un critère intentionnellement indéterminé. Il appartient au juge, en du renvoi implicite de la loi, espèce par espèce, à la lueur de données extralégales ou même extra WICKER, « Force obligatoire et contenu du contrat ». in Les concepts contractuels français à l'heure des Principes du droit européen des contrats, Dalloz, Paris, 2003, p. 151. 442 Cass. soc.
| 46,623
|
35/tel.archives-ouvertes.fr-tel-01528642-document.txt_23
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 7,781
| 12,137
|
Une place ténue de la viticulture biologique dans les démarches environnementales territorialisées
Avec la montée des préoccupations environnementales, les dispositifs de protection de la nature se sont multipliés en France depuis les années 1960. Des outils comme les Parcs naturels régionaux (PNR) ou les réserves naturelles ne sont pas seulement destinés à à la protection des espaces naturels : ce sont aussi des outils d'aménagement du territoire, qui abordent de manière transversale des problématiques environnementales, paysagères, économiques et sociétales. Ces territoires de projet, dont les limites sont souvent supra-communales et englobent tout à la fois des espaces ruraux et urbains, se sont construits en réaction aux menaces de dégradation des paysages, et afin de valoriser les ressources locales. Des structures comme les PNR ont ainsi engagé de multiples initiatives dans le domaine agricole, en particulier dans le développement de filières agricoles de produits sous signes de qualité. Protection de l'environnement, développement territorial, valorisation de produits locaux de qualité Ces objectifs résonnent avec ceux de l'agriculture biologique. Ce lien n'a pourtant rien d'évident : les acteurs de ces territoires de projet mettent davantage l'accent sur l'ancrage local des denrées produites que sur d'éventuelles pratiques respectueuses de l'environnement (Poisson et Delfosse, 2012). Les 498 territoires du vignoble rhodanien rendent particulièrement compte de cette ambivalence. Plusieurs dispositifs territoriaux visent à la préservation de l'environnement, tels que le PNR du Luberon, ou le PNR des Baronnies provençales. Les vignerons ne semblent que s'y impliquer fort peu. Le Parc Naturel Régional du Luberon par exemple s'est engagé dans une démarche de développement de l'agriculture biologique, dont les produits seraient commercialisés par des circuits courts. l'aide des organismes de développement de la bio concernés, une chargée de mission du parc a effectué un diagnostic des potentialités de diffusion de cette démarche, s'appuyant sur des entretiens auprès de tous les acteurs. La bio valoriserait l'image du parc, et réciproquement. Malheureusement, la cave coopérative qui domine sur le secteur n'est, pour l'instant, pas partie prenante du projet. Figure 94 : La mise en avant d'un patrimoine naturel d'exception dans la communication de l'AOC Ventoux
Les visuels de l'appellation mettent l'accent sur le motif montagneux. La beauté des paysages et les dispositifs de protection de la nature et de la biodiversité sont mis en avant de manière secondaire. À gauche, le nouveau logo de l'AOC ; à droite, la page d'accueil de l'AOC Ventoux. Source : site web de l'appellation Ventoux (consulté la dernière fois en août 2016). Les chartes paysagères sont-elles davantage appropriées par les vignerons? Ces engagements moraux signés entre différents acteurs d'un territoire sont devenus des outils d'aménagement privilégiés. Souples, elles émanent d'une volonté d'entente autour d'une politique de protection, de gestion et d'aménagement d'un paysage, et fixent un programme d'actions pour mettre en oeuvre ce projet. Ces chartes paysagères, qui sont souvent aussi « environnementales », font l'objet d'une certaine vogue au sein des territoires viticoles, témoignant de la généralisation des démarches participatives 346. Pour les acteurs du vignoble, elles sont un moyen de manifester un engagement pour l'environnement auprès du consommateur et du citoyen. La démarche semble essaimer dans le vignoble français. Les appellations Chablis, Costières de Nîmes, Ventoux, ou encore Valréas, se sont dotées de telles chartes. Elles prennent forme dans des territoires à géométrie variable, de la petite appellation de quelques dizaines d'hectares à l'ensemble du périmètre des Côtes du Rhône, soit 120 000 hectares, dans le cas de la charte paysagère et environnementale initiée par le Syndicat des Côtes du Rhône. Parmi ces chartes, certaines associent des acteurs de diverses natures, mais d'autres n'engagent finalement que les membres de la filière. L'efficacité de ces chartes, en matière de protection de l'environnement, et de gouvernance locale, reste en débat. En atteste, à nouveau, l'exemple du Ventoux, appellation qui multiplie les projets mêlant viticulture et environnement et qui a également initié l'élaboration d'une charte paysagère et environnementale en 2003. Celle-ci s'articule sur un triptyque terroir-paysage-produit, dont chaque composante est 346 entre elles se sont regroupées dans le réseau international Paysages Viticoles, dit « Charte de Fontevraud », animé par l'Institut Français de la Vigne et du Vin. Née à la suite de l'inscription sur la liste du patrimoine mondial par l'UNESCO du Val de Loire en 2000 et du colloque international de Fontevraud « Paysages de vignes et de vins » en juillet 2003, cette charte a pour objectif d'inciter tous les acteurs des territoires viticoles à « s'engager dans des démarches paysagères volontaires et concertées conjuguant, dans une logique de développement durable, l'optimisation de la production viticole et la valorisation culturelle et touristique de ces paysages » (plaquette de présentation de la Charte de Fontevraud). 500 considérée comme renforçant la qualité des deux autres. La démarche a l'originalité d'intégrer la préservation de l'environnement à la valorisation des paysages. Dans le cadre de ce travail, le syndicat d'appellation a d'abord piloté un travail de description et de caractérisation des différents paysages rencontrés dans les 51 communes de l'appellation, cette étude paysagère servant de base à la construction d'une stratégie de développement touristique fondée sur la valorisation de ces aménités. Puis c'est un guide technique de pratiques respectueuses de l'environnement et des paysages à destination des producteurs qui a été élaboré. Les innovations développées par les vignerons biologiques y font figure de réalisations exemplaires. Quelques années après la signature de cette charte, le bilan est mitigé. Les vignerons ne se sont guère approprié cet outil. « C'était trop touffu, ça n'a pas embrayé », déplore la directrice du syndicat d'appellation (entretien à Carpentras en mai 2014). Selon elle, « signer une charte, ce n'est pas dans l'ADN des vignerons ». Un vigneron bio du territoire confirme cette impression (entretien en avril 2013) : « De toutes façons, c'est du flan. Ceux qui veulent feront quelque chose, ceux qui veulent pas feront rien. » Les producteurs ne voient dans ce type de démarches qu'une accumulation peu significative de coquilles vides. Ils doutent de leurs bénéfices réels, tant pour la société que pour eux. Ils préfèrent ainsi s'en remettre à une initiative individuelle. Nombre de domaines élaborent leur propre charte environnementale, à l'instar du domaine Jaume, à Vinsobres (Drôme), dont la charte « Vinea Natura » garantit la mise en oeuvre de techniques comme la stimulation des déf naturelles de la vigne ou l'enherbement. La nature individuelle de la conversion à l'agriculture biologique ne semble en fait guère trouver de points de convergences avec ce type de projets collectifs. C'est du moins l'hypothèse qui ressort des discours des vignerons. Ceux-ci ne semblent pas trouver leur place dans ces territoires de la protection de l'environnement. Le rôle des vignerons, et en particulier des bios, dans l'entretien de paysages à forte valeur environnementale, mériterait pourtant d'être davantage mis en valeur. Ces démarches laissent toutefois entrevoir d'importantes potentialités en matière de promotion du territoire ; notamment parce qu'elles s'appuient sur la valorisation d'un patrimoine plus naturel que culturel. Paradoxalement, c'est peut-être encore plus la contribution de la viticulture biologique aux facettes historiques, sociales et culturelles des territoires viticoles qui est mise en avant. C La viticulture biologique, un atout dans le renouveau des vignobles disparus
Dans de nombreuses régions françaises, les mutations vitivinicoles du XX e siècle (spécialisation des exploitations, primes à l'arrachage, mondialisation) ont entraîné l'atonie voire la disparition de vignobles parfois vastes348. Depuis quelques décennies, certains d'entre eux renaissent ou se revivifient, à la faveur de projets d'acteurs locaux qui oeuvrent à la reconstitution de ces vignobles « oubliés » (Chapuis, 2014). Il ne s'agit en effet pas tant de recréer une activité économique que de raviver des liens au sein d'une communauté rurale, autour de lieux et de pratiques mémoriels. L'adoption de pratiques respectueuses de l'environnement, voire biologiques, fait très souvent partie intégrante de ces démarches. La bio participe ainsi d'une dynamique de réappropriation d'un territoire viticole, et prend une dimension identitaire. Ce renouveau peut prendre des formes plurielles. L'initiative peut venir de vignerons amateurs, qui pratiquent la viticulture à titre de hobby. Auparavant surtout le fait de locaux s'efforçant de maintenir cette activité par nostalgie, ces vignerons amateurs, souvent pluriactifs, sont de plus en plus des personnes extérieures au territoire, des citadins qui s'investissent dans la relance d'un vignoble au point, parfois, d'en faire leur métier et le terreau d'une reconversion professionnelle (voir notamment chapitre 4). Ils abolissent ainsi encore davantage la frontière entre producteur et consommateur : le vin produit est avant tout destiné à leur propre consommation et à celle de leur entourage, ce qui les oriente souvent vers la bio. C'est comme cela, par exemple, qu'un groupe d'amis a fait renaître, Ménerbes, dans le Luberon, des hectares de vignes laissés à l'abandon par les nouveaux acquéreurs de propriétés en résidence secondaire : soixante-dix associés, réunis par cinq passionnés au sein d'une société civile d'exploitation agricole, ont ainsi réhabilité six hectares avec l'aide d'un oenologue spécialisé dans les vinifications douces. Ce projet convivial n'est tout de même pas seulement tourné vers l'autoconsommation : les vins sont commercialisés, sous un nom de marque qui associe bio, plaisir et amis, « Orgâmic » (figure 95). « Gourmands, sur le fruit, faciles à boire, faits pour être partagés entre amis » selon l'un des fondateurs du projet (entretien en mai 2014), ils rencontrent un franc succès auprès des jeunes associés. Ceux-ci participent d'ailleurs de l'animation des vignes à l'occasion des vendanges. Le vignoble auvergnat était par exemple l'un des plus vastes à la fin du XIXe siècle, avec 70 000 hectares plantés, contre moins de 1 160 hectares aujourd'hui. Il connaît toutefois lui aussi une dynamique de renouveau depuis une quinzaine d'années (Rieutort, 2008 ; Ricard et Rieutort, 2014).
Figure 95 : « Orgâmic » : un vin bio pour ranimer un vignoble en déprise
L'étiquette du « vin des copains » joue davantage la carte de la jeunesse et de l'humour que celle du territoire, comme le suggère le petit dialogue entre les apprentis vignerons : « On trinque à mon vin / Récompense de bons moments dans les vignes Tu seras payée en NATURE, qu'ils disent! ». Cliché : F. Célérier, avril 2014. Ce sont plus généralement les communautés locales qui s'investissent dans ces reconstitutions. Dans la Loire, à mi-chemin entre Lyon et Saint-Étienne, l'Association pour la restauration et le développement du vignoble des Coteaux du Gier réunit depuis 2006 des vignerons, des particuliers et des élus locaux, mobilisés pour le redéveloppement de la vigne sur la rive gauche de l'affluent du Rhône. Le vignoble a en effet décliné dans les années 1970 en même temps que la sidérurgie : au début du XXe siècle, les vins du Gier avaient en effet pour principale fonction d'étancher la soif des mineurs. La baisse de la consommation de vins ordinaires précipite la disparition du vignoble, et la reconversion des agriculteurs vers l'élevage. Aujourd'hui, c'est en partie la crise laitière qui a motivé le renouveau du vignoble. Les premières replantations de vignes initiées par deux exploitants ont suscité dans la population locale l'envie d'aller plus loin. « L'idée, c'est pas d'avoir 200 hectares de vignes », explique l'un des vignerons à l'initiative de cette relance (entretien en mai 2014). La crise des caves coopératives locales incite à la prudence : les vins devront être commercialisés si possible en direct. L'association promeut dans un même élan la relance d'anciens cépages autochtones (le mornen noir et le chouchillon), cultivés dans le vignoble avant le phylloxéra, et ce afin de marquer la typicité de ce terroir. Et enfin, la relance s'oriente vers la bio : « Là on aide deux ou trois vignerons à démarrer. Leurs objectifs c'est bio, biodynamie. À terme on pourrait avoir tous les coteaux du Gier en bio presque », espère le vigneron. Pour le moment, le vignoble est encore confidentiel, avec à peine dizaine d'hectares. Mais plusieurs porteurs de projets sont intéressés pour créer leurs domaines. L'association a pu créer un 503 Groupement Foncier Viticole, afin d'acheter des terrains pour accompagner l'installation de nouveaux arrivants. Le foncier reste un obstacle non négligeable, morcelé en une multitude de petites parcelles appartenant à des propriétaires peu soucieux de réhabiliter des friches. Elles sont pourtant désormais soustraite à la pression urbaine, intense dans cette périphérie lyonnaise : le Schéma de Cohérence Territoriale de la commune de Génilac prévoit de maintenir une ceinture verte, réservée au développement de la vigne, aux terres agricoles et aux espaces naturels. Le président de la Région Rhône-Alpes est lui-même venu saluer la démarche de l'association, et encourager l'installation en bio. L'exemple des Coteaux du Gier n'est pas un cas isolé : à Besançon, une première cuvée bio a vu le jour en 2015 à partir des trente ares de vigne nouvellement plantés dans un quartier du sud de la commune. Ce sont les employés des espaces verts de la ville, les membres de l'association des jardins et vergers familiaux et ceux du renouveau de la vigne de Besançon, qui ont entretenu cette vigne, à l'aide d'un vigneron bio de Lons-le-Saunier. La bio valorise les efforts de ces novices : « La culture de cette vigne, comme le développement des pâturages, des vergers familiaux, des sentiers de randonnée, 504 ou du patrimoine bâti vernaculaire font partie d'un programme global, sur les collines de Besançon, qui vise à reconquérir ces anciens terrains agricoles », explique le directeur des espaces verts, sportifs et forestiers (L'Est républicain, 10 août 2016). Dans ce type d'initiatives, les vignerons peuvent à nouveau jouer un rôle de moteur, notamment en se faisant pédagogues auprès des habitants souhaitant apprendre à travailler la vigne. Ces initiatives mettent à jour la place de la viticulture biologique dans les dynamiques de développement rural. La préservation de l'environnement semble même pouvoir devenir un ciment identitaire. Elle ancre ces démarches dans une viticulture vivante, là où les processus de mise en valeur du patrimoine rural peuvent avoir tendance à muséifier les héritages ancien. Avec la bio, la restauration des petits murets ou des haies ne sont plus seulement des marques plus ou moins factices d'un passé mythifié. Ces éléments ont aussi une fonction écologique et culturale. L'avenir de ces vignobles reconstitués reste incertain, et dépendra certainement des capacités d'organisation collective au sein de ces initiatives qui semblent, malgré tout, fragiles. Dans l'ensemble, la viticulture biologique semble proposer des réponses à ces territoires porteurs d'enjeux multiples, allant de la qualité de l'eau à la préservation des paysages ou des solidarités locales. Adossées à ces démarches collectives territorialisées, les conversions à la viticulture biologique sont bien plus conséquentes que lorsqu'elles sont le fait de vignerons isolés. Ces projets donnent surtout une toute autre portée à la démarche biologique. Dans le cas de la restauration du bon état écologique de l'eau, les résultats peuvent être rapidement visibles, laissant aux vignerons un sentiment d'efficacité qui les encouragent à poursuivre leurs efforts. 505 III. Vers un oenotourisme bio?
Figure 97 : Un panneau signalant un caveau de vente de vin bio, sur une route départementale de la Drôme. Cliché : F. Célérier, avril 2013. Un petit panneau au message sommaire, sur une route départementale à l'écart des grands axes de communication de la Vallée du Rhône (figure
97)
. Pour peu que la proposition capte l'attention du conducteur, celui-ci n'aura qu'une cinquantaine de mètres pour se décider. Est-ce là tout ce que la viticulture biologique a à proposer, en matière d'expérience oenotouristique? Non, à l'évidence : viticulture, vins et vignerons bio sont porteurs d'innombrables aménités qui correspondent aux attentes de nos sociétés, et qui pourraient être exploitées à des fins touristiques. Encore faut-il parvenir à valoriser ces potentialités. Or la France, premier producteur mondial de vin, et premier pays touristique au monde, accuse un retard certain en matière d'oenotourisme 349, en comparaison des pays du Nouveau Monde. Aux États-Unis, l'ouverture de la winery de Robert Mondavi, considérée comme point de départ du renouveau des vins de la vallée de Napa, remonte à 1966. En France, l'alliance du vin et du tourisme est en pleine expansion depuis les années 1990, apparaissant comme un levier pour faire face à la crise vitivinicole. La mise en avant de l'histoire, des paysages, du patrimoine, des savoir-faire, répond à la demande des consommateurs sur la qualité et l'origine des produits, tout en promouvant la vente directe (Lignon-Darmaillac, 2009). L'oenotourisme s'inscrit dans le développement des activités tertiaires dans la viticulture, l'offre de services autres que la vente des produits permettant au vigneron de diversifier ses revenus, et de nouer des liens plus étroits avec le consommateur. L'oenotourisme comprend « toutes les activités touristiques, de loisirs et de temps libre, dédiées à la découverte et à la jouissance culturelle et oenophile de la vigne, du vin et de son terroir » (Charte européenne de l'oenotourisme). 506 Porteuse de ressources territoriales spécifiques, la viticulture présente de multiples atouts à faire valoir, dans notre société tout à la fois éprise de nature et de voyages. Le rapport 20 Mesures pour 2020 en faveur de la gastronomie et de l'oenologie françaises du Conseil de promotion du tourisme (2014) souligne à juste titre la nécessité de « répondre au souhait de produits sains, traçables, savoureux, en cette période de scandales alimentaires ». L'environnement est pourtant une composante peu mise en avant dans les produits oenotouristiques développés par les acteurs des territoires vitivinicoles. Vignerons et organismes de développement de la bio n'ont, quant à eux, que faiblement pris conscience du gisement touristique que recèle cette démarche ; si l'on excepte la vente au caveau, particulièrement développée. Mais c'est tout un discours mêlant vin, environnement, tourisme et territoire qui reste encore à construire.
A. Des initiatives collectives rares
L'oenotourisme pourrait être un levier puissant à la valorisation de la viticulture biologique et réciproquement. Mais la déception domine face aux rares synergies tissées entre ces deux mondes. Les pesanteurs du développement touristique du vignoble français n'épargnent pas les bios : une offre d'hébergement dans les vignobles atrophiée, des domaines longtemps fermés au public, faute de vin à vendre quand la production est commercialisée par le négoce (comme c'est le cas dans le Bordelais), un manque de compétences touristiques chez les organisations professionnelles vitivinicoles (Randelli et Schirmer, 2013) expliquent ce faible développement de l'oenotourisme français. Pour les organismes de développement de l'agriculture biologique, la valorisation des opportunités touristiques de cette activité semble à peine émerger comme en tant qu'axe de promotion. En matière de communication, l'accent a été mis avant tout sur la qualité des produits. Aujourd'hui encore, les pistes stratégiques proposées par l'Agence Bio se focalisent sur la segmentation de la gamme des vins en fonction des marchés, la communication auprès des professionnels, et sur l'organisation d'événements (dégustations, salons) destinés à faire connaître les vins auprès du grand public (Agence Bio, 2013a). Autant d'initiatives très justifiées, mais qui laissent de côté la piste touristique. Celle-ci n'est pas davantage exploitée par les opérateurs locaux de la bio. Leur principale action se réduit généralement au recensement des domaines ouverts au public, dans des petits guides mêlant liste des marchés de produits régionaux, des magasins bio et des producteurs en vente directe. Ceux-ci sont souvent présentés sous la forme d'un catalogue, parfois agrémenté d'une cartographie sibylline (figure 98). Les bios du Languedoc-Roussillon développé des outils plus performants : l'interprofession Sudvinbio a réalisé, avec la Région Languedoc-Roussillon, un inventaire de l'offre oenotouristique bio sur le territoire, recensant des prestations diverses (accueil de groupe, visite de vignoble, de chais, dégustation, restauration, hébergement) pour chaque exploitation. Les domaines présentant cette offre pratiquent quasiment tous l'anglais, ils disposent d'un site internet précisant le 507 détail de leurs services, et bénéficient généralement d'un label de qualité touristique, de type « Vignobles & Découvertes ». Le catalogue en question est téléchargeable sur le site web de Sudvinbio. Les acteurs de la bio semblent en tout cas devoir compter davantage compter sur leurs propres actions que sur les initiatives de la filière viticole en matière de développement oenotouristique. Rares sont les syndicats d'appellation ou les interprofessions qui développent des projets oenotouristiques ciblant les domaines biologiques. Ceux-ci semblent retenir davantage l'attention des Offices de Tourisme : à La 508 Brède (Gironde), un vigneron bio entretient des relations étroites avec l'Office de Tourisme communal, qui oriente régulièrement des visiteurs intéressés spécifiquement par les vins bio vers ce domaine. Des démarches collectives voient le jour. À Saint-Émilion, l'Office de Tourisme a décidé d'accompagner le mouvement de croissance de la bio, en travaillant sur la création de produits oenotouristiques dédiés. Les « jeudis bio » de Saint-Émilion ont été lancés en 2009, des promenades partant du coeur de la cité médiévale, avec pour destination un domaine accueillant les participants pour une dégustation suivie d'un pique-nique de produits bio. Faute de succès, ils se sont transformés en « dimanche bio », avant d'être abandonnés. Leur mise en oeuvre comportait son lot de contraintes : les propriétés participant à l'opération devaient être accessibles à pied, à proximité du centre de SaintÉmilion. Il fallait aussi qu'elles soient assez nombreuses pour que la prestation puisse tourner d'un domaine à un autre. « Je veux pas passer tous mes dimanches de l'année à faire les dimanches bio », reconnaît un des vignerons impliqués dans le projet (entretien le 11 juillet 2012).
Figure 99 : La route des vins issus de l'agriculture biologique de Saint-Émilion Source : Office de Tourisme de la Juridiction de Saint-Émilion, juillet 2012. La formule de la Route des vins bio de Saint-Émilion a connu davantage de réussite (figure 99), même si le terme de « route » peut paraître quelque peu excessif pour une promenade à pied dans les vignes. L'initiative s'inspire d'un motif touristique en plein essor, comme les illustrent les multiples routes des vins espagnoles (Lignon-Darmaillac, 2007). Les routes des vins représentent aujourd'hui des outils essentiels du développement touristique d'un vignoble, et constituent de véritables traits d'union entre villes et campagnes. Elles se déploient généralement à une échelle départementale, sur plusieurs 509 dizaines de kilomètres, faisant la jonction entre plusieurs sites viticoles, et permettent ainsi aux touristes d'ancrer leur dégustation de vin dans la contemplation des paysages et la culture locale. Cette petite route des vins bio de Saint-Émilion convie ici le visiteur à une relecture des paysages viticoles, à ne plus regarder seulement les vignes mais aussi tout ce qui les entoure, herbes, haies, murets, sans en dénaturer la beauté. Dès le début des années 2000, l'entreprise de conseil en viticulture biologique Vini Vitis Bio, implantée avant tout en Aquitaine, avait pressenti l'intérêt d'attirer l'attention des touristes vers les domaines biologiques, alors encore peu nombreux. Sur cette initiative privée avait été créée la « Route des vins bio en Occitanie », outil marketing associant une signalétique spécifique (figure 100) à un catalogue d'une vingtaine d'adhérents. La démarche devait promouvoir tant la culture biologique que l'ancrage territorial des participants dans la culture occitane. Elle s'est rapidement essoufflée, faute d'une mise en réseau plus poussée entre les adhérents, et les autres acteurs du territoire. Il ne suffit pas de localiser les membr d'un réseau pour construire une route des vins, celle-ci doit passer par des points-clés des vignobles, des lieux remarquables. Les vignes bio en comptent ; il faut néanmoins les identifier, et les mettre en scène, à l'aide d'outils et de technologies en phase avec les usages d'aujourd'hui.
Figure 100 : Les traces de la « route des vins bio en Occitanie » Cliché : F. Célérier, juillet 2012, Saint-Pierre-de-Bat (Entre-deux-Mers). Ces initiatives souffrent surtout d'un manque de synergies entre les acteurs du territoire et le monde viticole. Dans le Bordelais, nulle action conjointe n'est entreprise entre les Offices de Tourisme et le Syndicat des Vignerons Bio d'Aquitaine. « La collaboration ne va pour l'instant pas plus loin, faute de temps », regrette la directrice de cet organisme (entretien en février 2014). Chacun s'attache à développer ses propres actions de promotion. Cette absence de mise en réseau est générale au sein des 510 vignobles ; elle a notamment été pointée du doigt dans le rapport Dubrule 350, qui fait de la coordination entre les initiatives des acteurs du tourisme et de ceux des acteurs agricoles et viticoles l'un des pivots de la stratégie de développement oenotouristique en France. Dans cette dynamique, les caves coopératives ne semblent pas jouer de rôle particulier : la majorité d'entre elles n'ont guère encore mis en place de prestations oenotouristiques très élaborées. Mais certaines démarches témoignent d'un indéniable effort d'ouverture au public : les coopératives dotées de boutiques réservent généralement tout un espace aux vins bio qu'elles produisent. La cave coopérative de Vacqueyras, dans le Vaucluse, portée par une équipe volontaire et acquise aux enjeux environnementaux, propose même des animations tels que ces afterworks où l'on peut déguster un verre de vin bio avec quelques olives de Nyons, et ce en compagnie du vigneron ; une démarche résolument tournée vers les jeunes consommateurs (figure 101).
Figure 101 : Les afterworks bio de la coopérative de Vacqueyras, une proposition touristique novatrice Source : Inter Rhône. Ces initiatives originales semblent néanmoins exceptionnelles ; le développement oenotouristique de la viticulture biologique repose avant tout sur des démarches individuelles. La vente des vins au domaine 350 Le rapport L'oenotourisme : une valorisation des produits et du patrimoine vitivinicole a été réalisé par l'ancien sénateur Paul Dubrule en 2007, à la demande conjointe des ministères en charge de l'Agriculture et du Tourisme. Paul Dubrule a ensuite pris la tête du Conseil Supérieur de l'oenotourisme, association créée en 2009 par le ministre en charge de l'Agriculture et le Secrétaire d'état en charge du Tourisme, qui fédère les acteurs touristiques et vitivinicoles, et vise au développement et à la valorisation de l'oenotourisme en France. 511 en est l'un des principaux leviers.
B. L'opportunité de la vente au domaine
La vente au domaine est le principal circuit de commercialisation de la vente dite directe, dont elle représente environ les deux tiers (voir chapitre 8). La vente au domaine représente une partie variable du volume des ventes et du revenu de l'exploitation 351. À partir des données produites par l'Agence Bio, on peut estimer les volumes vendus au domaine à environ 20 % des ventes totales, contre environ 10 % pour les ventes de vins tous types confondus (FranceAgriMer, 2015). Ce type de distribution est très apprécié des exploitants bio, qui sont près de 70 % à vendre une partie de leur vin de cette façon (Agence Bio, 2012b) : c'est au domaine que les prix de vente pratiqués sont les plus élevés, le bénéfice revient directement au producteur, et la clientèle est généralement fidélisée. Face à la crise, l'augmentation de la vente au caveau est une stratégie commerciale fréquemment adoptée par les exploitants. Elle pousse souvent les proches de la bio à franchir le cap de la conversion, comme le suggère un vigneron de Cairanne (Vaucluse, entretien en avril 2013) : Beaucoup de clients au caveau commençaient à nous poser la question. Vous êtes en bio? Je leur disais, ben je mets presque plus de désherbants. Parce qu'en fait, je voulais pas passer en bio parce que j'avais deux parcelles qui sont complètement sur le coteau et qui sont extrêmement compliquées à travailler. Donc je m'étais dit, il faut le prendre comme un, un antibiotique. Quand vous prenez de l'antibiotique une fois par an c'est pas grave, quand vous en prenez tous les deux mois, ça devient grave en fait. Sauf que les clients en fait, pour eux, il y a pas le logo AB, vous êtes pas bio. [] Maintenan t les particuliers sont ravis quand ils sont au caveau et qu'ils apprennent que c'est un vin bio. S'il y a une dame avec le monsieur qui vient acheter du vin, ça marche encore mieux. Représentant une partie conséquente de son chiffre d'affaire, la vente de vin au domaine est toutefois contraignante pour le vigneron bio. Elle exige du temps de présence sur les heures d'ouverture, un temps précieux pris sur les travaux de la vigne, si le vigneron est seul pour assurer l'accueil du public. Or les pratiques biologiques laissent peu de répit. La conjointe constitue un appui privilégié dans la commercialisation. Mais en dépit de ce rôle actif, les visiteurs doivent le plus souvent prendre rendezvous à l'avance ou se heurter à des fermetures saisonnières des caveaux de vente individuels. « Si les gens viennent, on les accepte, mais on n'a pas développé, pas le temps, pas assez de personnel », résume une vigneronne de l'Entre-deux-Mers (Gironde, entretien en juillet 2012), région viticole qui pâtit, qui plus est, d'un isolement certain : 351 Pour certains vignerons enquêtés, la vente au domaine peut atteindre parfois plus de 80 % des ventes du vin produit. 512 On n'est pas fléché. Ils vont nous flécher, ça fait deux ans qu'ils nous le disent, mais c'est toujours pas fait, et on attend. Et donc on ne refait pas nos affiches parce qu'on va avoir quelque chose. Et puis parce que c'est interdit aussi de se flécher, on n'a pas le droit. On attend, mais c'est vraiment la honte. Lorsque le caveau de vente est accolé à l'exploitation, il faut en effet que le visiteur puisse le rejoindre sans difficulté. Tous les domaines ne sont pas situées au bord de routes importantes ; il faut parfois emprunter des voies peu fréquentées, où la facilité à s'orienter est tributaire du soin apporté par l'aménagement communal à la signalétique. S'égarer dans les vignes à la recherche d'un petit caveau de vin bio peut, certes, faire partie du charme de la visite pour un citadin. L'émiettement des acteurs sur le terrain, conjuguée à la myriade de petites exploitations, peut se traduire par une inflation de panneaux, aboutissant parfois paradoxalement à une saturation visuelle face à laquelle le touriste peut avoir toutes les peines à se repérer (figure 102). Pour une partie de la clientèle, le label bio peut être une marque distinctive au sein d'une signalétique touffue. Il n'est guère certain que cela suffise à pallier l'isolement de vignobles situés à l'écart des axes touristiques.
Figure 102 : Orienter les visiteurs vers les domaines bio : une signalétique qui reflète une offre éclatée À gauche, une profusion de domaines ouverts au public à Vinsobres (Drôme ; avril 2013), parmi lesquels un bio se distingue ; à droite, deux bios en concurrence à La Brède (Gironde ; février 2014). Afin de pouvoir afficher le logo sur les panneaux, les producteurs doivent demander l'autorisation auprès de la mairie, de l'Organisme de Défense et de Gestion de l'appellation, et de l'Agence Bio. Clichés : F. Célérier. Figure 103 : Des caveaux de vente de vins bio au coeur de villages viticoles À gauche, un caveau de dégustation-vente de vin bio à Châteauneuf-du-Pape ; à droite, un caveau d'un domaine de Tulette (Drôme), dont la façade vétuste et les abords Quand cette question de l'accessibilité est trop aiguë et que la vente au caveau occupe une place primordiale dans les circuits de commercialisation de l'exploitation, il est judicieux pour le vigneron de développer un point de vente dans le centre de la ville ou du village où se situe le domaine. La vente de vin bio participe alors de l'attractivité touristique d'une commune viticole, et réciproquement (figure 103). Ces caveaux travaillent d'ailleurs généralement en coordination avec les restaurants locaux, et contribuent à l'image de marque d'une région et au développement local. Pour les vignerons biologiques, les inconvénients de la vente au domaine sont compensés par ses nombreux avantages. La clientèle est fidèle ; la rencontre directe permet au vigneron d'expliquer ses pratiques et de communiquer sur les qualités des vins bio, de faire le récit de sa conversion. Il développe d'ailleurs bien davantage cette description personnelle que l'inscription territoriale de sa démarche. Ce lien semble aller de soi ; partant, nulle nécessité de le revendiquer. Claire Delfosse et Cécile Bernard (2007) ont montré qu'il en était de même pour la notion de terroir, rarement explicité par les producteurs dans la vente directe. Dans le cas des vins bio, la vente devient une expérience personnalisée, dans laquelle les vignerons font preuve de compétences commerciales – et psychologiques – remarquables. Les biodynamistes, en particulier, marchent sur des oeufs, comme l'explique un maître de chai d'un domaine biologique, dans les Côtes de Castillon (entretien en juillet 2012) : Au tout début, je parlais un peu trop de biodynamie, et je voyais les têtes Les gens se disaient, mais il est fou ce type. Quand c'est moi qui reçoit les gens, j'y vais à tâtons, parce que c'est quand même quelque chose d'assez compliqué à expliquer la dynamie. Il y a certaines personnes qui ne viennent que pour goûter le vin. Donc ça, pas de problème, de toute façon on est là pour vendre du vin aussi. Et celles qui sont intéressées par la biodynamie, qui posent des questions, qui montrent de l'intérêt, là, pas de problème, on leur explique tout. 514 D'autres profitent justement de ce moment privilégié pour défendre et expliquer leur démarche ; non sans certaines contradiction : « On n'indique rien sur l'étiquette, en revanche au caveau, on ne parle que de ça, de la biodynamie » (un vigneron du Ventoux, entretien en avril 2013). L'espace de vente lui-même témoigne de cet engagement (figure 104), sans être forcément très soignés. Qu'importe : si l'on en croit les vignerons, les visiteurs apprécient aussi le cachet rustique de certains caveaux paysans : « ils adorent venir là. Je leur dis à chaque fois, c'est tout petit, mais non c'est bon, c'est authentique, on n'est pas à Saint-Émilion dans les gros trucs, les grosses salles de réception » (un vigneron bio à Saint-Étienne-de-Lisse, dans le Libournais ; entretien en juillet 2012). Nul besoin, comme le fait le Nouveau Monde, d'élaborer des édifices qui miment l'environnement pour dire combien le vin est « naturel »352 : dans les petits caveaux bio, le vin reste le produit d'une culture, des savoir-faire du vigneron, dont la maison est souvent attenante. Ce sont généralement les vignerons eux-mêmes qui assurent ainsi ce service. Embaucher un vendeur exige de lui des compétences pointues sur la fabrication des vins bio. Les exploitants sont mieux à même de répondre aux interrogations des visiteurs, souvent exigeants dans leurs requêtes (voir chapitre 8). Le secteur est ainsi sans doute peu professionnalisé353, bien que les données manquent pour le confirmer.
Figure 104 : La valorisation de la bio à travers la vente à la propriété Clichés : F. Célérier, avril 2013, Valréas (Drôme). Mettre en avant cette idée de production artisanale dans la configuration des lieux de vente, répond aux attentes du consommateur, pour qui l'image du vin bio est associée à ce type de production (Stolz et Schmid, 2006). La vente au caveau est pour eux l'occasion de connaître l'origine des produits, de comprendre les processus de fabrication, et de s'assurer de la qualité de ce qu'ils boivent. Dans 352 Au Chili, l'architecte Roberte Benavente a conçu le chai de la bodega Casa Lapostelle, filiale du groupe Marnier-Lapostelle, sur les règles du nombre d'or, afin d'être en harmonie avec la nature. Dans le jardin est entretenue une réplique de l'environnement local, où des plantes vernaculaires sont cultivées. 353 Aux États-Unis, il est avéré que la mise en tourisme des vignobles créé des emplois (Storchmann et al., 2008). Mais les petits caveaux de vente bio ne sont pas les wineries américaines. 515 certains vignobles, le développement de la vente au domaine a inauguré un processus d'ouverture inédit des exploitations vers la société. Désormais, vin et tourisme ne s'ignorent plus. La viticulture biologique offre de multiples potentialités à un développement touristique fondé non seulement sur les produits de la vigne et du vin, mais surtout sur le goût pour la nature et l'environnement.
C. Des riches potentialités en attente d'être révélées
Figure 105 : La Cité du vin de Bordeaux, vitrine involontaire de la lutte anti-pesticides
Dans la nuit du 24 mai 2016, les membres de l'Organisation Non Gouvernementale les Amis de la Terre Gironde ont projeté le message lumineux « STOP PESTICIDES » flanqué d'une tête de mort et d'un masque à gaz, sur une façade de la Cité du vin, une semaine avant son inauguration. Source : Sud-Ouest, 25 mai En mai dernier, l'inauguration de la Cité du vin de Bordeaux, ambitionnant de faire de la métropole une capitale de l'oenotourisme français, a été émaillée de manifestations anti-pesticides menées par des organisations écologistes (figure 105). Les enjeux de l'ouverture de cette Cité du vin sont complexes : les vignerons espèrent capter une partie des flux des 450 000 visiteurs annuels prévus. Mais le rayonnement touristique ne doit pas servir d'écran de fumée aux problématiques sanitaires, économiques et environnementales du vignoble. L'essor de l'oenotourisme ne peut se passer d'une réflexion sur la durabilité des pratiques et des aménagements 354. La viticulture biologique produit des aménités susceptibles de nourrir le développement d'un tourisme responsable, qui participe lui aussi à la préservation de l'environnement. 354 C'est même l'un des principaux axes de la Charte européenne de l'oenotourisme, qui engage ses signataires à définir une stratégie locale en faveur du « développement oenotouristique durable », définie comme une « forme de développement, planification ou activité oenotouristique qui respecte et préserve à long terme les ressources naturelles, culturelles et sociales du territoire et qui puisse, en même temps, contribuer de façon équitable et positive au développement économique et au complet épanouissement des personnes qui vivent, travaillent et résident sur ces territoires ». Il semble pour cela opportun de s'engager dans une conception moins étroite, moins sectorielle de l'oenotourisme, généralement réduit aux activités de découverte des vins et de la gastronomie locale (comprenant une dégustation puis des achats), et des métiers et des techniques de la vigne et du vin. Ces activités sont surtout prisées par les amateurs de vins, qui constituent effectivement la principale clientèle de l'oenotourisme français, estimée à près de 7,5 millions de personnes, dont 5 millions de Français et 2,5 millions de visiteurs internationaux (Atout-France, 2010). N'y a-t-il pas un fort potentiel de développement, en direction d'une clientèle touristique qui se tourne vers d'autres activités comme les sports en pleine nature, ou la découverte des paysages? Sans doute ; en atteste le succès croissant du Diois, au sud du Vercors, dont la cave coopérative Jaillance (100 % biologique) est la quatrième destination oenotouristique française, avec près de 100 000 visiteurs par an (AtoutFrance, 2010). Un vignoble comme celui de la Vallée du Rhône s'étend dans des régions parmi les plus touristiques de France, et côtoie un patrimoine naturel exceptionnel. Encore faut-il, certes, parvenir à attirer les voyageurs vers l'intérieur des terres : le couloir rhodanien constitue, pour bien des touristes qui se rendent sur la Côte d'Azur, une simple voie de passage, un tunnel hermétique à son environnement. Mais le tourisme rural n'est pas en reste, y compris dans une région comme Provence-Alpes-Côte d'Azur, où les regards convergent vers le littoral (graphique 28a). Le Luberon reçoit tous les ans 1,6 M. de touristes et 6 M. d'excursionnistes 355 (Rapport annuel du PNR du Luberon, 2015) épris de nature, et de paysages en partie façonnés par la vitivini culture. Les vignobles bio ne pourraient-ils bénéficier des retombées de ces flux touristiques, qui seraient rééquilibrés en direction de l'intérieur des terres? La mise en tourisme des vignes biologiques doit rester modérée, certes, afin de ne contrevenir aux objectifs de préservation de l'environnement. Mais les régions viticoles les moins marquées par la monoculture, qui sont précisément aussi, souvent, les plus fragiles économiquement, gagneraient à développer des liens avec les acteurs du tourisme « vert », expression qui regroupe les formes du tourisme rural, du tourisme agricole (ou agritourisme) et de l'écotourisme (centré sur la découverte de la nature). Selon l'Organisation Mondiale du Tourisme (OMT), le tourisme consiste à passer au moins une nuit hors de sa résidence principale. Les excursionnistes sont des personnes qui pratiquent des sorties récréatives ou visitent un lieu à la journée. La fréquentation de l'espace rural, qui représente environ 10 % du total, est peut-être sous-estimée, dans la mesure où ce n'est que la fréquentation hôtelière qui est comptabilisée. Il faudrait pouvoir y ajouter celle des campings (14,6 M. de nuitées pour la région ; l'INSEE ne donne pas le détail des chiffres en fonction des types d'espaces). Source : INSEE Provence-Alpes-Côte d'Azur, Enquêtes de
fré
quentation hôtelière, 2011. Rares sont encore les exploitations viticoles biologiques qui appartiennent, par exemple, au réseau Bienvenue à la ferme (« Tu amènes plus facilement tes gamins à Bienvenue à la ferme où il y a de l'élevage que dans les vignes, la vigne il y a quand même une connotation de poison », se justifie une vigneronne des Côtes du Rhône, lors d'un entretien en mai 2014). Quelques domaines réservent un terrain aux campeurs. Les exploitations qui ont soustrait quelques ares à la viticulture sont plus à même de répondre à cette demande. La présence d'un cheval ajoute une dernière touche d'attractivité : « Le cheval, pour les camping-cars, les clients, les gens sont contents quand ils viennent, ça fait un coin de nature, ça fait partie du folklore », souligne un exploitant des Côtes du Rhône (entretien en avril 2013). On entrevoit les multiples prestations qui pourraient être développées par les domaines en bio : aménagements mettant en valeur les panoramas paysagers (figure 106), véloroutes dédiées à la cyclo-randonnée dans les vignes, ou, qui sait, participation aux pulvérisations matinales des tisanes biodynamiques aux côtés du vigneron, voire immersion dans les activités du domaine, comme le propose le wwoofing356 La densité symbolique de la viticulture biologique semble se prêter à une pluralité d'expériences uniques et conviviales, telles que peuvent les rechercher les jeunes touristes urbains. 356 WWOOF, pour World-Wide Opportunities on Organic Farms, est un réseau mondial de fermes biologiques créé en Angleterre dans les années 1970. Les agriculteurs proposent de partager une partie de leurs connaissances, de leurs savoir-faire, et de la vie à la ferme avec des wwoofers, des volontaires qui s'engagent à fournir assistance dans les travaux agricoles. Le site web de WWOOF France recense près d'une centaine de vignerons-hôtes inscrit dans le réseau. 518 Figure 106 : La terrasse du domaine Viret (Vaucluse) : une vue imprenable sur le Ventoux et la mosaïque provençale, un domaine ouvert vers l'extérieur
L'aménagement de la terrasse du domaine en cosmoculture a bénéficié du soutien de la Région Rhône-Alpes et du FEADER, au titre du « développement d'un site oeno-touristique ». Clichés : F. Célérier, mai 2014. Des pistes sont aussi à explorer en direction d'une clientèle moins connaisseuse, mais sensible aux questions environnementales. Dans la région Provence-Alpes-Côte d'Azur, si les touristes restent majoritairement français, la clientèle étrangère hôtelière est composée en grande partie d'Allemands, de Britanniques ou de Belges (graphique 28b) ; des populations qui comptent parmi les premiers consommateurs des vins bio français à l'export (voir chapitre 8). Des vignerons bio de l'appellation Ventoux ont fait d'eux-mêmes le rapprochement : « C'est vrai qu'ici on a la chance d'avoir une clientèle qui est très Europe du Nord, donc Belgique, Hollande, Allemagne. Ils sont très sensibles au bio. C'est une grosse grosse partie de notre vente directe. » (entretien en avril 2013). L'arrivée de touristes étrangers dans la région a même été vécue comme un événement salutaire pour le vignoble, qui a poussé les vignerons à innover afin de répondre à cette sensibilité à l'environnement. Dans le Bordelais, les prestations oenotouristiques proposées par les domaines commencent à intégrer ces attentes. Jusqu'à présent, peu de propriétés proposaient une découverte des vignes aux visiteurs, préférant mettre l'accent sur le patrimoine culturel, qu'il s'agisse des chais où s'alignent les barriques de vieillissement, de caves souterraines ou des demeures bourgeoises ou aristocratiques. Lorsqu'ils ouvrent leurs portes au public, les domaines proposent de plus en plus aux touristes une visite in situ du vignoble. C'est ainsi l'occasion, le cas échéant, d'expliquer les pratiques biologiques, et de dévoiler aux visiteurs leur inscription dans les paysages viticoles, comme le fait Xavier Planty à Guiraud (Sauternes
entretien en février 2014) : Maintenant dans mes visites de touristes, je passe de temps, on passe plus de temps dehors à expliquer tout ce qu'on fait que dans les chais. Les gens n'ont plus besoin d'aller voir les chais. Les questions sont pas sur la vinification, l'âge des barriques, les cépages, les questions c'est comment vous faites pour les labours, comment vous faites pour l'enherbement Et 519 vous savez, quand vous visitez en avril-mai, et que vous avez des milliers de feuilles, de fleurs dans la vigne, les gens sont enchantés. La démarche nécessite toutefois une certaine pédagogie. Le caractère « sauvage » (voir chapitre 6) des vignes biologiques manque de raffinement, et peut heurter les représentations de touristes plus coutumiers des beaux paysages viticoles soignés. Au sujet du vignoble de Banyuls, Éric Rouvellac souligne ainsi l'évolution concomitante, dans les années 1970, de la généralisation du désherbage chimique et de l'augmentation du tourisme dans la région. La beauté du vignoble repose notamment, dans les représentations des vacanciers, sur le contraste minéral entre le gris de la roche à nu, le vert de la vigne et le bleu de la mer, des paysages acquis au prix de la succession des désherbages chimiques tout au long de l'année : « le paysage emblématique de l'appellation, qui devient un patrimoine, repose sur une technologie polluante, impliquant des risques sanitaires graves pour l'environnement (les sols et la qualité des eaux en particulier) et la population. » (Rouvellac, 2013, pp. 166-167). La visite touristique des vignes se fait pourtant d'autant plus sûrement que les vignes ne sont pas gorgées de produits chimiques. La demande des touristes en découverte du vignoble ne peut faire l'économie d'une réflexion sur l'épandage des pesticides. « Les sentiers découverte dans des vignes traitées, quand il y a des délais de réentrée, sur les parcelles, ils valent pour les salariés, mais ils valent aussi pour les promeneurs », suggère un vigneron bio de Pomerol (entretien en juillet 2012). Il n'est guère étonnant que les touristes ne s'approprient pas des vignes dont l'air est irrespirable. Les professionnels du tourisme et de la promotion des vignobles devront certainement anticiper cette critique. Les spécificités de la viticulture biologique constituent ind ablement un riche potentiel pour un oenotourisme français en plein essor. Ce développement s'en trouve réinterrogé : Les prestations proposées contrastent avec les activités oenotouristiques classiques, telles que la visite des chais et la dégustation, centrées sur les composantes culturelles de la viticulture. L'oenotourisme biologique se tourne davantage vers la nature, et donne à voir le territoire sous un autre angle ; sans sacrifier toutefois à la profondeur culturelle du vin, les pratiques et les savoir-faire biologiques s'inscrivant dans le patrimoine historique des vignobles. La viticulture biologique peut sans doute contribuer à produire de nouvelles formes et de nouvelles pratiques oenotouristiques, en phase avec les attentes de touristes qui délaissent les prestations convenues.
| 7,884
|
hal-03824480-Etude%20documentaire%20rocher%20de%20Dzaoudzi%20-%20C.%20Carlon.txt_2
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,022
|
Version d'auteur : "Étude documentaire sur le rocher de Dzaoudzi à Mayotte". [Rapport de recherche] Caroline Carlon, consultante en recherches historiques; DAC Océan Indien - Ministère de la culture. 2017. ⟨hal-03824480⟩
|
None
|
French
|
Spoken
| 6,130
| 9,797
|
B – La place forte de Dzaoudzi
Lorsque les Français prennent officiellement possession de Mayotte en 1843, ils héritent de deux îles et quatre îlots d'une superficie totale de 374 km2. La plus considérable est Grande Terre. En face, Petite-Terre est composée de Pamanzi, grand losange de 11 km2, relié par une jetée au rocher de Dzaoudzi, siège du gouvernement, des services publics et résidence des fonctionnaires. Dzaoudzi est séparé de Mamoudzou ou de Choa, point le plus rapproché de la Grande Terre par un bras de mer large de 2.800 mètres. De plus, «les deux îlots les plus importants, lorsqu'on songera à fortifier Mayotte, sont au N.-O. M'Zambourou et au S.-E. Bandéli, qui commandent les deux principales passes » 28 comme le montre Émile Vienne qui, en 1900, reste toujours dans la logique de fortifications « à outrance » en vue d'une éventuelle incursion anglaise. En effet, la position géostratégique de Mayotte a depuis longtemps été l'enjeu de nombreux conflits 26
Martin J., Comores : quatre îles entre pirates et planteurs. Tome 1, Razzias malgaches et rivalités internationales (fin XVIIIe – 1875), Paris, L'Harmattan, 1983, page 160. 27 ANOM, SG Madagascar, carton 270 dossier 605, note de M. Passot, Commandant Supérieur de Mayotte et Dépendances : « un traité passé entre les ambassadeurs du sultan Abdallah et les habitants de Mayotte dans l'année 1251 de l'Hégire [qui] avait accordé au sultan Abdallah et à son fils Allaoui
certains droits de suzeraineté sur Mayotte
(...)
ces droits devaient cesser
à la mort du sultan Allaoui
.
» Or Salim est l'oncle d'Allaoui, qu'il
a
renversé en 1840
. 28 ne E., Notices coloniales. Notice sur Mayotte et les Comores, Paris, Alcan-Lévy 1900, page 64. 17 Caroline Carlon et stratégies politiques pour contrôler les passes du Canal du Mozambique. Passot29 lui-même écrit dans son rapport : « Dzaoudzi, par sa position peut-être unique au monde, est appelée à devenir un jour l'arsenal militaire de la France dans les mers de l'Inde. »30 M. Livet, capitaine du Génie compare même l'enceinte arabe à « un petit Gibraltar. »31 SG MAD 224 – 476 – Rapport de Passot – Juin 1843
1. L'enceinte fortifiée de Dzaoudzi
Dès 1792, une razzia malgache dévasta Mayotte. Tsingoni, la capitale, fut partiellement détruite et le sultan décida alors de transférer le siège du pouvoir sur l'îlot de Dzaoudzi, à Petite-Terre. Plus facile à défendre, ce rocher, réputé inexpugnable, fut fortifié, ce qui le rendait imprenable pour une armée dépourvue d'artillerie.
32
En 1843, peu après la prise de possession de Mayotte par la France, le ministère met en place un comité de réflexion chargé de proposer des travaux à réaliser en vue d'améliorer la défense de Mayotte. Le commandant supérieur Rang des Adrets 33, fraîchement nommé, propose alors un projet d'aménagement transformant Dzaoudzi en une puissante citadelle : fortifications bastionnées, port militaire associé à un port marchand et de carénage, aménagement de batteries, et édification sur l'île de Pamandzi d'une ville de 8 000 habitants baptisée « Port Louis-Philippe. »34 29 Nommé
par
arrêt
é
de M
.
Baz
o
che,
gouverneur
de
B
ourbon
en
mai
1843. ANOM
, SG Madagascar, carton 224, dossier 476,
pièce n°1. 30 ANOM, SG Madagascar
carton
224
, dossier
476
: «
Renseignements maritimes sur
l'île de Mayotte »,
juin
1841 cité aussi par Martin
J
., Histoire de
May 31 ANOM, 21 DFC 92 – 565 : rapport à M. le commandant supérieur au sujet du mur arabe existant à Dzaoudzi, 24 juin 1870. 32 Martin J., Histoire de Mayotte, département français, Paris, Les Indes Savantes, 2010, pages 19 et 20
33 Paul Rang des Ardets (1793 – 1844) exerça de 1843 à 1844 les fonctions de commandant supérieur de « Nossi-Bé et dépendances. Il meut d'une congestion en allant visiter la Grande Terre.
Flobert T., Les
Comores
: Évolution juridique et socio-politique, thèse,
Aix-en-Provence
, Centre d'études et de recherches sur les sociétés de l'océan Indien, 1976, page 361.
34
Martin J., Histoire de Mayotte, département français, Paris, Les Indes Savantes, 2010, page 60.
18 Caroline Carlon 21 DFC 05 – Projet d'établissement de défense par Varney – 23 avril 1844 Bas
é
uniquement sur les croquis de
Jehenne et jugé trop dispendieux, cet ambitieux projet
est rapidement
écarté
à la
faveur
d'un aménagement
autrement
plus
simple
et composant davantage avec les données du site.
Le plan de Dzaoudzi, dressé en 1844 par le génie militaire, 35 à la demande de la nouvelle commission composée de Guillain et Passot, montre une enceinte fortifiée autour de laquelle s’organise toute la composition urbaine : la place d'armes, le gouvernement provisoire, le corps de garde, l'arsenal du Génie, la caserne provisoire, la prison, l'hôpital, divers bâtiments, ainsi que la mosquée et l'habitation d'Andriantsoly. 35 ANOM
21
DFC
15 : carte
levée
pour l'intelligence du projet d'ensemble, 20 août 1844. 21 DFC 37 : plan et état des lieux de Dzaoudzi, 24 octobre 1844. 19 Caroline Carlon 21 DFC 37 – Plan de Dzaoudi –
23
octob
re
1844
De 1846 à 1850, Passot, premier titulaire du poste de Commandant Supérieur de Mayotte et Dépendances fait preuve d'une fièvre bâtisseuse qui va donner au Rocher l'aspect qu'il gardera longtemps. Il met aussi en place les institutions coloniales en place.36 Il fait construire la digue qui relie Dzaoudzi à Pamanzi, appelée Boulevard des Crabes en raison des nombreux crustacés qui envahissaient le lieu à marée basse.37 36 ANOM, SG Madagascar, carton 224, dossier 176 : lettre du gouverneur de la Réunion au commandant Passot du 11 Août 1843. 37 ANOM, 21 DFC 91 – 155 : Rapport sur la situation et les besoins des travaux à Mayotte en 1849 par M. Livet. 20
Caroline Carlon Boulevard des Crabes – BNF ca
Dans un autre rapport de 1846, 38 M. Livet décrit l'enceinte du Rocher comme une « simple chemise couronnée par un mur d'appui de un mètre de hauteur et de 0,5 à 0,6 d'épaisseur, bâti sur le haut de l'escarpement et se pliant à toutes ses sinuosités. Cette enceinte paraît tracée avec beaucoup d'intelligence ; partout où il a été possible, elle présente des flanquements ; (...) elle est flanquée de distance en distance par des tours et les portes de l'Est et de l'Ouest sont également protégés par des tours. » Toutefois, il ajoutait que « cette muraille est dans le plus mauvais état, construite presque entièrement en pierres sèches, elle tombe en ruines et ne peut plus nous servir qu'à nous fournir des matériaux. » Cette enceinte a toutefois l'avantage de présenter un obstacle sérieux contre les attaques « indigènes ». En 1850, un nouveau rapport, rédigé par une commission d'officiers de Marine connaissant le Canal du Mozambique est présenté au ministre. Assez pessimiste, ce document explique que la construction d'ouvrages défensifs supplémentaires pour une île située en dehors des routes commerciales est jugée trop onéreuse et Mayotte perd son statut de point d'appui dans l'hypothèse d'une conquête de Madagascar au profit de Nossy-Bé. Le rapport préconise toutefois la construction sur Dzaoudzi d'ouvrages défensifs afin de protéger le centre de commandement de tout assaut venant surtout de la Grande Terre.39 38 39 ANOM, 21 DFC 92 – 565. Le rapport de M. Livet en date du 27 Février 1846 est cité tel quel.
ANOM
,
21 DFC
54
: Projets
pour
1851
,
fort
ifications
,
construction
du
front
,
2
A
oût 1850
par le capita
ine
Livet.
21 Caroline Carlon 21 DFC 15 – Carte levée pour l'intelligence du Génie - 1844
L'enceinte fait alors l'objet de nombreux projets défensifs, abandonnés car jugés inutiles ou trop coûteux. Ainsi, en 1857 puis en 1862, le Génie propose de restaurer et de créneler cette enceinte afin de renforcer la protection de Dzaouzi.40 21 DFC 320
–
Projets pour 1861 et suivantes
:
fortification
s
Voir
aussi
21
D
FC
91 –
356 : Mémoire sur le projet de
fort
ification
de D
za
oudzi : relever et créneler l'ancienne enceinte arabe.
21
décembre 1861.
40 22
Caroline Carlon
Ce projet est ensuite abandonné en 1870 car le mur arabe est jugé en trop piteux état.41
21 D
FC
92 – 565
-
Rapport du 15 Mars 1870 au sujet du mur arabe existant
à Dzaoudzi
Le
Génie
sur place se contente donc d'entretenir
les fort
ifications.42
2. La place forte Une fois maîtres de Mayotte, les Français décident rapidement d'habiter Dzaoudzi. La présence d'une enceinte préexistante n'y est sans doute pas pour rien. Toutefois, cette décision participe aussi d'un clivage entre les nouveaux habitants et ceux qu'ils appellent les « indigènes ».43 Pour justifier ce choix, le Génie prétexte l'insalubrité des autres parties de l'archipel malgré un rapport positif du chirurgien Nevellec Duverger. 44 Cette concentration des colons sur le Rocher proviendrait, pour l'historien Jean Martin de « la crainte qu'inspire l'isolement au milieu de la population indigène. »45 ANOM, 21 DFC 92 – 565 : Rapport du 15 Mars 1870 au sujet du mur arabe existant à Dzaoudzi. Voir les listes des dépenses effectuées aux fortifications en 40 DFC 212 dossiers 36 à 42. 43 On retrouve maintes fois ce terme dans les rapports du DFC. 44 ANOM, SG Madagascar, carton 224, dossier 476, rapport du chirurgien major de la corvette La Blonde au gouverneur de l'île de Bourbon, en date du 24 Février 1842. 45 ANOM,
SG Madagascar, carton 224, dossier 476. Martin J., Comores : quatre îles entre pirates et planteurs. Tome 1, Razzias malgaches et rivalités internationales (fin XVIII e – 1875), Paris, L'Harmattan, 1983, page 226. 23 Caroline Carlon 21 DFC 84 - Plan de Dzaoudzi, 1847. D'après une réduction de 1844
En 1843, d'après Passot, la ville de Dzoudzi compte environ 1 800 habitants, répartis dans 359 maisons construites autour de la résidence du sultan Andriantsoly.46 46 ANOM, SG Madagascar, carton 224, dossier 476, correspondance du commandant Passot au gouverneur de l'île Bourbon en date du 20 Juin 1843 et 21 DFC 91 – 348 : État général de l'assiette du logement des îles de Mayote et Nossi Bé : 148 artilleurs de l'infanterie de Marine à Dzaoudzi, 100 soldats africains, 74 malades et deux infirmiers à l'hôpital de Dzaoudzi. 15
dé
cembre 1861.
24 Caroline Carlon SG MAD 224 – 476 –
2 – Rapport
du capitaine
de La Blonde -
1842
Petit à petit, les Français s'installent sur le Rocher et en excluent les anciens habitants. La priorité accordée à l'aspect militaire et maritime limite les rapports directs entre les métropolitains enclavés à Dzaoudzi et les autochtones répartis sur l'ensemble de l'archipel. Ainsi, alors que rapidement se confirme la volonté d'établir un grand centre militaire et commercial à Mayotte, Pierre Passot fait ériger un ensemble de bâtiments destinés à l’administration locale et une caserne à Dzaoudzi, véritable « centre nerveux »47 de la place de Mayotte et de ses dépendances. 21 DFC 35 - Vue de Dzaoudzi prise de la grande rade en face de l'entrée principale - 1845
Les archives du Dépôt des Fortifications des Colonies montrent de nombreux projets de construction de batteries défensives sur les côtes du Dzaoudzi.48 De plus, une compagnie d'Infanterie de Marine et un contingent « d'Africains »49 y sont cantonnés, même si rapidement jugée inutiles par 47 L'expression est de Saïd Ahamadi in Mayotte et la France de 1841 à 1912, Mayotte, Éditions Mahoraises, 1999, page 80. 48 Voir 21 DFC 90, dossiers 52, 55, 56, 113 et 136 notamment. 49 Dénommée Infanterie de la Marine et rattachée au Ministère de la Guerre et dénommée Infanterie Coloniale de 1901 25 Caroline Carlon Bonfils.50 À ses dires, les soldats sont souvent « ivres et dépravés. » En effet, Bonfils dénombre cinq débits de boissons et parvient à en réduire le nombre en portant la patente à 1 000 francs.51 Cela contribue au taux de mortalité élevé, plus de 10 décès par an comme le montre certains comptes rendus de l'hôpital.52 Toutefois, en 1851, Bonfils estime au décuple de la garnison de la Réunion les effectifs nécessaires pour la défense de Mayotte. Il constate aussi que la pauvre batterie établie à Dzaoudzi ne serait être de taille envers quelque bâtiment de guerre que ce soit.53 Par voie de conséquence, entre 1844 et 1889, on dénombre près de 25 projets d'amélioration des fortifications et des batteries de défense du Rocher. 54 Divers bâtiments sont construits ou projetés, en fonction des finances accordées par le Ministère qui peine à suivre les demandes parfois exorbitantes. 21 DFC 91 – 145 - État estimatif des dépenses à faire aux fortifications - 1845
Ainsi, la place forte de Dzaoudzi va bientôt comprendre l'hôtel du Gouverneur, un hôpital, une église ainsi qu'une mosquée, diverses maisons modèles, des casernes, des magasins d'artillerie dont un magasin à poudre, une prison, un arsenal comme le montre le plan suivant daté de 1847. à 1960, Lanclume J.M., Les troupes de Marine, 4 siècles d'histoire, Paris, Lavauzelle, 2004, 576 pages.
50 Philippe Bonfils, commissaire dépendant du Gouverneur de la Réunion du 13 Juin 1851 au 18 Octobre 1853. ANOM, SG Madagascar, carton 220, dossier 464 ou carton 235 dossier 514. 51 Martin J., Histoire de Mayotte, département français, Paris, Les Indes Savantes, 2010, page 77. 52 ANOM, SG Madagascar, carton 224, dossier 476, rapport du chirurgien major de la corvette La Blonde au gouverneur de l'île de Bourbon, en date du 24 Février 1842. 53 ANOM, registre Mayotte 1922, lettre n°78 bis, folio 99 en date dy 25 Septembre 1851 : Rapport sur la situation générale de la colonie. 54 Voir les résultats sur la BDD jointe dans l'état actuel des recherches. 26 Caroline Carlon 21 DFC 76 - Plan d'ensemble de la forteresse de Dzaoudzi – 1er août 1847 27 Caroline Carlon 1 PL 540 – Plan de Dzaoudzi - 2e moitié XIXe
En outre, Dzaoudzi ne possède pas d'accès à l'eau courante et potable. Une chaloupe d'eau assure le ravitaillement et de nombreuses citernes sont construites sur l’îlot pour résoudre ce problème. Mayotte – 1843 28 Caroline Carlon 21 DFC 92 – 727 - État estimatif des dépenses à
faire
aux fortifications – 1889
En 1866, de nombreux bâtiments ont été construits comme la direction du Génie et des Travaux, les logements pour les chirurgiens, une boulangerie mais surtout des édifices civils : un tribunal, un commissariat de la Marine, des étables et des écuries, des écoles de filles et de garçons, un abattoir et de nombreux magasins et dépendances.
21
DFC 423 – Tableau général des établissements civils et militaires - 1866
En 1868, Gevrey dénombre 76 colons résidant à Dzaoudzi, essentiellement des fonctionnaires et des soldats.55 L'évolution de la place forte dans le dernier quart du XIXe siècle consiste essentiellement en réparations des fortifications.56 Les idées de constructions nouvelles sont laissées à l'état de projet pour cause de manque de liquidité. Le génie se contente de maintenir le bâti en état. En revanche, de nombreux travaux de construction d’infrastructures routières et de bâtiments civils sont entrepris dans la Grande Terre.57 55 ANOM, SG Madagascar, carton 235, dossier 514 : échange de correspondances entre Gevrey, procureur impérial et Hayes, commandant supérieur par intérim, 24 – 26 Août 1868. 56 Malheureusement, beaucoup de dossiers du DFC qui auraient pu nous éclairer sur l'évolution du bâti pendant cette période sont manquants. Cf la base de données. 57 ANOM, SG 241, dossier 534 : Projets divers pour Mayotte, 1844 – 1892. 29 Caroline Carlon Peu à peu, les bâtiments purement militaires sont abandonnés ou transformés en bâtisses civiles. En effet, à partir du début du XXe siècle, Dzaoudzi passe progressivement d'une structure militaire à une structure commerciale. L'ancienne place forte défensive devient un lieu de gestion administrative de la colonie et de commerce. En 1930, un rapport indique que le port possède des magasins de la Douane et des Travaux Publics d'une superficie de près de 550 mètres carrés. Les dossiers de la série Travaux Publics illustrent bien cette évolution en montrant notamment l'étendue du port maritime et l'amélioration des voies de communications, que ce soit par terre ou par mer.58
1
TP
847
– 3 – Plan de l’île Pamanzi – 1936
L'enclavement de Mayotte s'efface avec le développement des bateaux à vapeurs. Les paquebots des Messageries Maritimes touchent régulièrement à Dzaoudzi.59 D'ailleurs, le siège de la Compagnie à Mayotte jouxte la résidence du Gouverneur.60 Dès 1862, les Messageries Maritimes ouvrent une ligne entre Suez, les Seychelles (île de Mahé), La Réunion et Maurice pour acheminer le courrier venu de Méditerranée par Alexandrie. A partir de 1887, la Compagnie sépare la desserte de l’océan Indien de celle de l’Océanie en deux lignes distinctes. Elle met ainsi en place une ligne mensuelle 58 ANOM, 1 TP 847 dossiers 1, 2 et 3 et 1 TP 1007 : aménagement des routes et des ports de Mayotte dont Dzaoudzi ; 1936. 59
Patarin P. Messageries Maritimes. Paquebots et voyageurs du passé, Renn
es
, Ou
est France
, 1997, 140 pages. 60 Denis I., Les lieux de mémoire à Mayotte, Université Paris IV, in Outre-Mers, T 94, n° 350 – 351, 2006, page 164. 30
Caroline Carlon directe depuis Marseille vers les Seychelles, La Réunion et Maurice. Des navires stationnaires assuraient ensuite les ligne annexes vers Madagascar, Mayotte (Dzaoudzi) et la côte est de l’Afrique. Par la suite, la convention de 1894 fixe l’organisation des lignes dans l’océan Indien pour une dizaine d’années : la ligne principale est désormais bimensuelle, un voyage sur deux passant par les Seychelles et l’autre par la côte orientale africaine et Madagascar. Ces lignes vont d'ailleurs permettre l'embarquement des contingents de l'océan Indien lors de la Première Guerre Mondiale. Le paquebot Djemnah des Messageries Maritimes est réquisitionné et emporte un millier d’hommes de Mayotte et des Comores en direction de Madagascar, moins d’une semaine après la déclaration de guerre. Après 1921, un départ de Marseille est assuré toutes les deux semaines vers la côte est africaine, Mayotte, Madagascar, La Réunion et Maurice. A cette époque, il faut un mois pour se rendre de Marseille jusqu’à Maurice. Messageries otte 223 De 1943 à la 1945, lorsque les Comores passèrent sous l'autorité de la France libre, Dzaoudzi sert de base pour les hydravions britanniques.61 À la fin de la Seconde Guerre Mondiale, lorsque les Comoriens deviennent citoyens français en 1946, 62 l'assemblée territoriale des Comores vote pour le transfert de la capitale de Dzaoudzi à Moroni.63 Centre de la vie administrative, militaire, économique et commerciale de Mayotte, Dzaoudzi est aussi un lieu de rencontres sociales, notamment lors de la fête du 14 Juillet, qui est le cadre de festivités folkloriques appelées « Nogma Ya Gnombé » ou « Tam-Tam Boeuf », sorte de fête camarguaise ou de corrida sans mise à mort se déroulant sur une place publique, au son des tambours et des chants populaires. 64 Célébrée chaque année à Dzaoudzi, il s'agit d'une occasion pour les Mahorais et les colons de se retrouver ensemble hors de la sphère comme en témoignent ces photographies prises en 1928. 61 Martin J., Histoire de Mayotte, département français, Paris, Les Indes Savantes, 2010, page 116. Loi Lamine Gueye du 7 Mai 1946 qui regroupe sous la même entité administrative Mayotte et les Comores. 63 Martin J., Histoire de Mayotte, département français, Paris, Les Indes Savantes, 2010, page 123. 64 Ahamadi S., Mayotte et la France de 1841 à 1912, Mayotte, Éditions Mahoraises, 1999, page 134. 62 n
3. Les projets pour Dzaoudzi : un lieu de déportation pénale
Comme pour toute enceinte militaire, surtout dans les colonies, les rapports du DFC foisonnent de projets de construction pour améliorer la défense de la place ou les conditions de vie des soldats, à tel point qu'il est parfois ardu de faire la part des choses entre les bâtiments projetés et ceux finalement construits. Dzaoudzi n'échappe pas à la règle : la grande majorité des mémoires et des plans du DFC fait état de projets de construction, que ce soit d'une nouvelle enceinte, d'une caserne à l'épreuve de la bombe ou encore d'un amphithéâtre.65 Un des projets les plus marquants est l'idée de faire de Dzaoudzi un lieu de déportation pénale. En effet, au moment de la grande période du bagne qui voit éclore les nombreux camps de rétention en Guyane et en Nouvelle Calédonie, la loi du 8 juin 1850 prévoit de faire de Pamanzi et des îles Marquises un lieu de rétention. 66 Dans un premier temps, il est nécessaire de rappeler que la déportation est inscrite à l’article 7 du Code Pénal depuis 1810 mais qu’elle n’a jamais été appliquée. Elle est ainsi définie à l’article 17 dudit Code : « La peine de la déportation consistera à être transporté et à demeurer à perpétuité dans un lieu déterminé par le gouvernement, hors du territoire continental de l’empire. »67 Sur le plan de l’échelle des peines, elle se situe en troisième position, après la peine de mort et les travaux forcés à vie, mais avant les travaux forcés à temps. Ce classement s’explique par le fait que la déportation est une peine perpétuelle et qu’elle devance donc dans la gravité les peines « à temps. » La déportation est une peine « politique » ou qui s’applique à des crimes à caractère politique lesquels peuvent encore être sanctionnés par la peine de mort. Au cours des mois d’Avril à Juin 1850, partisans et adversaires de la déportation s’affrontent au sein de l’Assemblée Nationale Législative. Arago, Lamoricière, Lamartine, Victor Hugo, interviennent souvent en grandes envolées lyriques au sujet de la déportation mais également des îles Marquises. Il faut dire, à la décharge des commissaires, que ces derniers ont été retardés dès le début de leurs discussions par le choix des lieux prévus aux deux premiers articles du projet de loi. En effet, le 2e alinéa de l’article premier prévoit que : « la citadelle de Dzaoudzi, près de l’île de Mayotte, » Par exemple 21 DFC 90 - 45 A, 21 DFC 91 – 148, 21 DFC 92 – 524, 21 DFC 92 – 563 etc.
ANOM, H 2, H 2 : Transportation et déportation, études préliminaires, Rapports sur Dzaoudzi et l’île de Pamanzi et Mayotte, 1849. H 3 : Rapport Desfossés sur Mayotte (1847). Correspondance relative à Dzaoudzi et Pamanzi (1849 Note sur Dzaoudzi et Pamanzi (1849). Gazette des tribunaux et L’Écho de la marine, du 18 avril 1850. 67 Dalloz, Code pénal annoté et expliqué d’après la jurisprudence et la doctrine, Dalloz Edouard fils et Vergé Charles, Paris, bureau de la jurisprudence générale, édition de 1881. 65 66 32 Caroline Carlon est affectée à la déportation en citadelle. Quant à la déportation prévue par l’article 17 du Code pénal, elle s’appliquera à « l’île de Pamanzi », et aux « îles Marquises. » (Article premier, 2e alinéa : « La citadelle de Dzaoudzi, près de l’île de Mayotte, est affectée à cette destination. » Article 2 : « L’île de Pamanzi et les îles Marquises sont déclarées lieu de déportation pour l’application de l’article 17 du code pénal.) ».
68 H 3 – Transportation et déportation – Études préliminaires sur Mayotte - 1849 C – Quelques édifices particuliers 1. La résidence du Gouverneur
L'édifice le plus marquant de la place forte de Dzaoudzi est sans doute la résidence du Gouverneur ou hôtel du gouvernement, où se tient le Conseil d'Administration de la colonie. 69 L’étude topographique du Rocher indique que cet édifice symbolisant la puissance française 70 dans la 68
Martin J., Histoire de Mayotte, département français, Paris, Les Indes Savantes, 2010, page 61. Ahamadi S., Mayotte et la France de 1841 à 1912, Mayotte, Éditions Mahoraises, 1999, page 95. 70 Les différentes dénominations de la résidence, que ce soit sur les plans ou dans les archives illustrent bien l'évolution du statut administratif de Mayotte, tout d'abord siège du gouvernement provisoire au début de la colonisation, elle est rapidement appelée Maison du Commandant Supérieur dès 1847 puis Palais du Gouverneur en 1898. A la suite du rattachement administratif de Mayotte à Madagascar en 1912, elle prend le nom de Résidence du Lieutenant-Gouverneur, puis du Chef de Province au début de la Première Guerre Mondiale. Par la suite, elle devient la Résidence de 69 33 Caroline Carlon nouvelle colonie a été bâti sur la résidence du dernier sultan de Mayotte. Le plan de Dzaoudzi, dressé en 1844 par le génie militaire, délimite de manière précise cet édifice à la limite nord-ouest de l'îlot. Il s’agissait d’une bâtisse rectangulaire en bois et moellons, entourée d'une galerie et couverte d'un toit en raphia. Ce bâtiment a connu de nombreuses modifications au fur et à mesure de l'évolution du Rocher de Dzaoudzi. En effet, en 1846, il s'agit d'une habitation « prêt-à-monter ». Un compte-rendu du Génie de 1849 évoque dans les détails cette résidence : « C'est une maison modèle dont les galeries ont été supprimées pour aménager de vastes pièces. Sur les faces latérales, deux varangues, dont les terrasses donnent accès aux ouvertures de l'étage de la maison, ont été accolées. L'une d'elle renferme la salle à manger et l'office, l'autre est ouverte sur le jardin ».71 SG MAD 241 – 534
–
Registre des délibérations du Conseil d'administration de l'île de Mayotte - 1848 Pour augmenter les pièces au dépend des terrasses afin de « loger plus d'officiers », le Génie demande, en 1848, 20 000 livres au Ministère des Colonies. Cette somme permettrait aussi de construire des dépendances avec deux pavillons à étage.72 l'Administrateur Supérieur de l'Archipel des Comores en 1925.
Flobert T., Résumé de Évolution juridique et sociopolitique de l'archipel des Comores, thèse d’État en Droit, Aix-Marseille, 1975. 71 ANOM, 21 DFC 155, Rapport sur la situation et les besoins des travaux des fortifications de Mayotte. État des lieux et de la main d’œuvre, détails des maisons modèles, Novembre 1849. 72 ANOM, SG 241, dossier 534, Projets de travaux divers : Résidence du Gouverneur, dépendances, ponton de carène, hangars à charbon, abattoir, réparations des routes et de bâtiments civils, 1844-1892. 34 Caroline Carlon 21 DFC 90 – 77A – Plan d'une maison modèle en charpente - 1846
ante ans après sa construction, ce bâtiment était si vétuste qu'il manquait de s'effondrer. L'administration de la colonie décide alors de commander une « maison coloniale type Eiffel » à ossature métallique, comme on en trouve dans les autres colonies françaises, notamment en Indochine73 mais aussi en Guyane.74 Cette bâtisse se compose d'une structure métallique de deux étages avec bardage en bois, sur un système de pilotis afin d'améliorer l'écoulement des eaux en saison des pluies. En 2004, suite à la décentralisation mahoraise, une grande répartition des biens appartenant à l’État et au Conseil Général a été́ opérée et le territoire hérite de cet édifice. Entourée d'un parc créé à la fin du XIXe siècle, la Maison du Gouverneur de Mayotte a été inscrite au titre des monuments historiques de France, ce permet sa préservation et sa restauration. Elle abrite le MUMA, musée qui a pour ambition de montrer le patrimoine de Mayotte dans son environnement régional.
2. L'hôpital
Dans cet espace restreint qu'est le Rocher de Dzaoudzi, les infrastructures médicales et religieuses sont intégrées aux moyens de défense de la place. L'hôpital de Dzaoudzi, fondé ex nihilo avec de modestes moyens a ensuite été étoffé progressivement au fur et à mesure du développement de la colonie. Il accueille cinq chirurgiens,75 des médecins de Marine, des infirmières, des religieuses chargées des soins infirmiers. Cela étant, ce service de santé fonctionne avec peu de moyens et les responsables s'en plaignent fréquemment. Le commandant Passot insiste pourtant sur l'insalubrité de la colonie et la nécessité de traiter correctement les fièvres.76 Il est rejoint par l'inspecteur des services 73 Voir le rapport des Ateliers Prévost concernant la Résidence du Gouverneur et leur analyse comparatives des « maison en kit » à Phu-Lang-Thuong » en Indochine et à Dzaoudzi. 74 Par exemple aux îles du Salut, le rapport de l’inspecteur des Travaux publics des Colonies, M. Fontaneilles mentionne les maisons des officiers du pénitencier comme étant des maisons en bois avec remplissage en brique, à un ou deux étages, pourvues d'une couverture ou en bardeaux, ou en tôle sur une charpente métallique afin de pallier à la saison des pluies. ANOM 1TP 977, dossier 12, Travaux à exécuter dans les établissements pénitentiaires de la colonie autres que ceux du Maroni., 1895. 75 Le plus connu est Dominique Daullé, qui a rédigé une thèse intitulée Cinq années d'observation dans les établissement français de Madagascar (côte Ouest) de 1852 – 1860. 76 Martin J., Histoire de Mayotte, département français, Paris, Les Indes Savantes, 2010, page 61. 35 Caroline Carlon de santé de la Marine, Jean-René Quoy qui exprime ses inquiétudes concernant l'état de salubrité de la colonie : « Dans ma conscience, Dzaoudzi, entourée de terres inhabitables, a perdu par la suite des travaux de l'occupation françaises, la salubrité dont elle a joui pendant longtemps. » Ici, Quoy fait allusion à la construction du Boulevard des Crabes, responsable selon lui d'emprisonner de l'eau qui, en stagnant, attirerait les moustiques et « autres miasmes » responsables des fièvres ».77 L'hôpital est une monumentale bâtisse à étage en maçonnerie avec une citerne pour collecter les eaux pluviales. Elle comprend une cour intérieure, des dépendances, les bâtiments en rez-de-chaussée servant de cuisine et de lingerie pour les religieuses à la fin du XIXe siècle. La maison voisine, d'architecture coloniale accueille le médecin de marine puis le médecin colonial. Les édifices religieux
Sur le rocher de Dzaoudzi cohabitent deux édifices religieux représentatifs de la mixité cultuelle de Mayotte : une mosquée et une église. L'église a été édifiée en 1849, précédée d'une mosquée.78 Ces constructions furent en partie financées par l'abolition de l'esclavage. En effet, le 1er Juillet 1847, M. Passot proclame solennellement l'émancipation des esclaves de l'île. Commence alors la longue 77
Moniteur Universel
du 6 Février 1850,
page
580 :
Rapport
présenté au nom de la commission Cécille par le représentant Henri Rodat, citant le rapport de J
.
-
R
Quoy
. Rapport
de Passot en date du 29 Octobre
1849
, ANOM, SG Madagascar, carton 224 ; dossier 476. 78 ANOM, SG 241,
dossier
534 :
dossier sur
la construction de l'église et de la mosquée, 1849. 36 Caroline Carlon tâche de la commission dédiée à l'évaluation des esclaves affranchis et chargée de répartir les 461 000 francs alloués par l’État à l'indemnisation des propriétaires. A la fin des opérations de la commission, la très grande majorité des esclaves avaient émigré et seule une poignée restaient à Mayotte.79 Cette situation présenta l'avantage de laisser au commandement français une somme substantielle sur le crédit alloué, que Passot estima à 246 000 francs. Il sollicita alors du ministre l'autorisation de disposer de ce montant afin de faire construire une église et une mosquée à Dzaoudzi. En 1884, le toit de la chapelle s'écroule. Le gouvernement propose alors de la démolir complètement afin de construire une nouvelle église. En attendant, le service religieux se fait dans le dortoir des sœurs.80 L'église, dédiée à Saint Michel, dans le prolongement de l'hôpital est de forme arrondie. Bâtie en maçonnerie, elle se fond dans un espace musulman81 et ne possède pas le caractère ostentatoire des grands édifices religieux de la fin du XIXe siècle en métropole ou même à Cayenne.
79 Martin J., Histoire de Mayotte, département français, Paris, Les Indes Savantes, 2010, page 65. Sur 2012 esclaves ayant comparu, 158 ont été affranchis antérieurement, 1277 ont quitté l'île, 527 déclarent rester à Mayotte, et 22 sont décédés avant comparution. 80 ANOM, SG 241, dossier 534 : lettre au ministre en date du 12 Mai 1884. 81 Denis I., Les lieux de mémoire à Mayotte, Université Paris IV, in Outre-Mers, T 94, n° 350 – 351, 2006, page 163. 37 Caroline Carlon SG 241, dossier 534 - Dossier sur la construction de l'église et de la mosquée, 1849.
Ainsi, malgré la séparation spatiale des populations mahoraises – le gouvernement et les autorités administratives sur le Rocher de Dzaoudzi – et la plupart des autochtones à Grande Terre – la construction quasi concomitante de deux édifices religieux de cultes différents à Dzaoudzi illustre bien la volonté politique de ne pas faire de prosélytisme religieux à Mayotte.
4. Les
cas
ernes Dès l'arrivée des Français sur l'île, la réputation d'insalubrité de la Grande Terre est telle que le commandement fait dormir ses marins à bord des navires, entre 1841 et 1843. L'infanterie de Marine, elle, passe ses nuits à terre dans des bâtiments déjà existants ou érigés à la hâte. Les premiers abris pour les soldats sont faits en bois, raphia et feuilles de cocotiers.
38 Caroline Carlon
SG
MAD
224 –
476
–
Rapport
de
Passot
Dès lors, afin de pallier le problème constant de l'humidité, la première caserne est construite dès 1845. Il s'agit d'un des tous premiers, sinon le premier bâtiment construit par l'administration française sur le rocher de Dzaoudzi pour remédier au problème de cantonnement des soldats. Il s'agit d'un bâtiment typiquement militaire, de construction identique à celui de l'hôpital, solide et fonctionnel, intégré au système de défense de la place forte, maintenant appelé bâtiment des Travaux Publics, mais aussi parfois ancien bâtiment de la Poste.
Les rapports du Dépôt des Fortifications des Colonies montrent beaucoup de projets d'agrandissement ou de construction de nouvelles casernes pour loger les troupes supplémentaires ou encore le contingent indien. 82
Denis
I.
, Les
lieux de mémoire
à
Mayotte,
Universit
é Paris IV,
in
Out
re
-Mers, T 94, n° 350 – 351, 2006, page 164. 39
Caroline Carlon 5. Le magasin à poudre
Dès 1846, un magasin à poudre est prévu afin de stocker les munitions de la place forte et de les protéger de l'humidité ambiante. Ce magasin comporte deux espaces rectangulaires recouverts par des voûtes cachées sous deux mètres de terre.83 Il semble, d'après les rapports du Génie, que le plus grand défi qu'est posé la construction et l'entretien du magasin à poudre soit celui de l'aération. En effet, il s'agissait de préserver au mieux les munitions de l'humidité sans pour autant qu'elles soient complètement en vase clos. Le magasin à poudre de Dzaoudzi fait donc l'objet de nombreux rapports de projets pour une amélioration continue.84
21 D
FC 92 – 562
C
– Projet d'amélioration du magasin à poudre de Dzaoudzi - 1869 ANOM, 21 DFC 92 – 560, rapport sur le magasin à poudre. ANOM, 21 DFC 90 – 49B, 21 DFC 92 – 403, 404, 510, 559, 560 et 562C. 83 84 40 Caroline Carlon
Conclusion Ce rapport présente donc une brève topographie historique du Rocher de Dzaoudzi et de son évolution depuis l'installation française en 1843 au milieu du XXe siècle. Cette étude témoigne de l’existence d'une démarche mémorielle mahoraise.85 En effet, depuis le tournant de ce siècle, Mayotte se cherche des lieux de mémoire, des repères témoins de son histoire et de sa culture, à une époque de mutation radicale de sa société (urbanisation, modernisation et tertiarisation de l'île). Ces lieux de mémoire témoignent de la culture locale, de l'époque coloniale puis de leurs mutations à l'époque contemporaine, mais ils ne sont pas toujours visibles ou mis en valeur, victimes des conditions climatiques ou de la pression démographique. La plupart des habitats autochtones avant la colonisation étaient construits en végétaux et se dégradaient rapidement, ce qui explique leur absence sur les cartes dressées à partir de 1841. En revanche, le patrimoine colonial est toujours présent, car l'utilisation de matériaux importés de métropole a rendu les structures plus pérennes. Le site le mieux conservé reste le Rocher de Dzaoudzi, siège de l'administration coloniale française. Malgré les mutations structurelles du XXe siècle, le tracé urbain de 1844 a été conservé, « notamment la voie transversale donnant accès à deux jetées et séparant l'île en deux parties Nord et Sud. »86 Une partie des installations militaires a disparu à la fin du XIXe siècle au profit de locaux administratifs et commerciaux. Ces derniers sont encore visibles dans le paysage architectural de Dzaoudzi, notamment la douane, l'ancienne poste ou le siège de la gendarmerie maritime. Ainsi, petit à petit, l'institutionnalisation de la mémoire à Mayotte se construit. Par la confrontation des sources, qu'elles soient orales ou écrites, les Mahorais sont en train de se réapproprier leur Histoire, notamment par le biais de projets comme celui entamé pour le Rocher de Dzaoudzi. Mayotte valorise donc de plus en plus son patrimoine et intègre, par la connaissance des richesses archivistiques dispersées sur place ou en métropole une connaissance accrue de sa mémoire historique.
Denis I., Les lieux de mémoire à Mayotte, Université Paris IV, in Outre-Mers, T 94, n° 350 – 351, 2006, pages 157 à 173. 86 Denis I., Les lieux de mémoire à Mayotte, Université Paris IV, in Outre-Mers, T 94, n° 350 – 351, 2006, page 162. 85 41.
| 31,684
|
2e0d3006e9d7634b8d8ac88708865643_1
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,015
|
L’adénocarcinome pancréatique : une tumeur dépendante des lipoprotéines
|
None
|
French
|
Spoken
| 1,981
| 4,203
|
NOUVELLE
L’adénocarcinome
pancréatique : une tumeur
dépendante des lipoprotéines
Sophie Vasseur1-4, Fabienne Guillaumond1-4
> L’adénocarcinome canalaire pancréatique (ADKP) est un cancer de mauvais
pronostic du fait de son diagnostic tardif et de sa résistance intrinsèque aux
thérapies antitumorales existantes [1,
11]. À un stade avancé de la maladie,
les patients développent un syndrome
cachectique irréversible réduisant l’efficacité des thérapies anticancéreuses
et dégradant leur qualité de vie ; seulement 5 % survivent au-delà de 5 ans.
Cette cachexie cancéreuse, résultant
d’un dialogue étroit et bidirectionnel
entre les tissus métaboliques de l’hôte
et la tumeur pancréatique, engendre
des troubles métaboliques se caractérisant principalement par une protéolyse
musculaire importante et des anomalies
affectant aussi le métabolisme lipidique
(lipolyse) et glucidique (néoglucogenèse) [2]. La tumeur pancréatique se
caractérise par un stroma important,
peu vascularisé, encerclant les cellules cancéreuses, les privant ainsi d’un
apport suffisant en oxygène et en nutriments. Les cellules tumorales en expansion sont donc contraintes d’effectuer
une reprogrammation métabolique pour
pallier leurs besoins excessifs en énergie
et en nutriments.
L’adénocarcinome pancréatique :
un cancer unique en son genre
Le modèle expérimental murin Pdx1Cre;K-Ras G12D ;Ink4a/Arf fl/fl (PKI),
reproduit fidèlement les caractéristiques de la pathologie humaine. Ce
modèle, porteur d’une invalidation du
locus Cdkn2a, codant pour deux suppresseurs de tumeur (Ink4a et Arf) et
d’une activation constitutive de K-Ras
728
m/s n° 8-9, vol. 31, août-septembre 2015
DOI : 10.1051/medsci/20153108009
spécifiquement dans le pancréas (sous
l’effet de la recombinase Cre dirigée
par l’expression de Pdx1, un gène maître
de l’identité pancréatique), développe
spontanément des adénocarcinomes
canalaires pancréatiques [3]. Ces deux
mutations sont retrouvées chez 80 à
95 % des patients atteints de cette
tumeur.
Les régions hypoxiques, disséminées
dans ces tumeurs murines, représentent
en moyenne 20 % de la surface totale
de la tumeur. Un tiers de ces régions
est occupé par des cellules épithéliales
tumorales présentant des changements
phénotypiques caractéristiques de la
transition épithélio-mésenchymateuse
(EMT), qui leur confèrent des propriétés
invasives [4]. Sur le plan métabolique,
ces cellules hypoxiques ont un statut
majoritairement glycolytique, elles produisent en excès du lactate, qui peut
lui-même servir de substrat métabolique
alternatif au glucose pour les cellules
tumorales normoxiques avoisinantes.
Dans le compartiment hypoxique, cette
activité glycolytique exacerbée, associée à une dégradation de la glutamine, permet l’activation d’une 3e voie
métabolique, celle des hexosamines,
stabilisant les protéines protumorales
grâce à des processus de O-N-acétylglucosaminylation [4]. Il existe donc
une hétérogénéité métabolique intratumorale révélant la complexité de la
reprogrammation métabolique qui ne
se limite sûrement pas à une activation
exacerbée de la glycolyse et de la glutaminolyse. L’accessibilité restreinte des
cellules tumorales aux nutriments et à
l’oxygène, due au proéminent stroma, et
1 Inserm U1068, Centre de recherche
en cancérologie de Marseille,
F-13288 Marseille, France ;
2 Institut Paoli-Calmettes, F-13009 Marseille,
France ;
3 CNRS, UMR7258, F-13009 Marseille, France ;
4 Université Aix-Marseille, F-13009 Marseille,
France.
[email protected]
[email protected]
l’activation constitutive de K-Ras oncogénique, induisent des modifications
métaboliques essentielles à l’expansion
des cellules tumorales [5]. Définir précisément les mécanismes de reprogrammation métabolique constitue alors un
véritable défi pour la découverte de
nouvelles stratégies thérapeutiques.
L’avidité des cellules tumorales
pancréatiques pour les lipoprotéines
en général et le cholestérol
en particulier
Grâce à l’utilisation des souris PKI
décrites ci-dessus, nous avons défini la
signature transcriptionnelle de l’adénocarcinome canalaire pancréatique,
signature à partir de laquelle une cartographie des voies métaboliques altérées
dans cette tumeur a pu être établie. De
manière surprenante, les voies impliquées dans le métabolisme lipidique
sont les plus activées dans la tumeur,
et en particulier celles qui sont associées au catabolisme des lipoprotéines
(Figure 1A) [6]. Les lipoprotéines LDL
(low-density lipoprotein), principaux
réservoirs de cholestérol circulant de
l’organisme, sont capturées par les cellules tumorales qui surexpriment à leur
surface le récepteur des LDL, le LDLR
(LDL receptor). Celui-ci est exprimé par
les cellules tumorales pancréatiques
quel que soit leur degré de différenciation. Par ailleurs, son expression est très
supérieure à celle de l’enzyme limitante
de la voie de synthèse du cholestérol,
HMGCR (3-hydroxy-3-methylglutarylCoA reductase) [6]. Par conséquent,
l’adénocarcinome canalaire pancréatique satisfait ses besoins en cholestérol
MAGAZINE
A Reprogrammation lipidique
de la tumeur pancréatique
B Régulations post-transcriptionnelles du LDLR
LDL
LDLR
Ub
Dégradation
Dégradation
Lysosome
LDLR
Nutriments
O2
Reprogrammation métabolique
Recyclage
Endosome
Golgi
Dérégulation des voies métaboliques lipidiques
Transport et synthèse
des acides gras
(Ex : SIc27a1, Gpam, Pecr)
Catabolisme des acides gras
et acylglycérides
(Ex : Ces1d, Eci1, MgII)
Noyau
Catabolisme des lipoprotéines
(Ex : Ldlr, ApoE, ApoB)
Synthèse des leucotriènes
(Ex : Alox5, Lta4h, Alox 15)
Synthèse des stéroïdes
(Ex : Hsd17b11, Tspo, Ch25h)
SR
EB
LX P
R
IDOL
ou
NOUVELLES
PCSK9
Ub
IDOL
LDLR
RE PCSK9
Pcsk9
Idol
Figure 1. Adénocarcinome canalaire pancréatique et avidité pour les lipides. A. Reprogrammation lipidique de la tumeur pancréatique. Coloration
HPS (hématoxyline, phloxine et safran) d’une coupe de tumeur pancréatique. Les glandes tumorales (délimitées par un trait pointillé vert) sont
entourées par une barrière stromale (annotée par *) dense et peu vascularisée qui restreint la diffusion de l’O2 et l’apport en nutriments aux
cellules tumorales. En réponse aux stress, hypoxique et nutritif, les cellules tumorales pancréatiques modifient leur activité métabolique pour
survivre et proliférer dans cet environnement hostile. Le métabolisme lipidique joue un rôle prépondérant dans cette reprogrammation, comme en
témoignent les nombreuses voies altérées dans la tumeur pancréatique par rapport aux pancréas normaux. Ici sont mentionnés quelques exemples
de ces voies lipidiques. B. Régulations post-transcriptionnelles du LDLR par IDOL et PCSK9. en activant majoritairement la capture du cholestérol exogène au détriment de la voie de synthèse endogène.
L’inhibition de la voie de synthèse, par
les statines, ne serait donc qu’un coup
d’épée dans l’eau pour limiter le contenu
en cholestérol des cellules tumorales
pancréatiques, face à l’entrée massive
de cholestérol via le LDLR. D’ailleurs,
aucun bénéfice thérapeutique des statines associées à la chimiothérapie par
la gemcitabine1 n’a pu être observé
chez des patients atteints d’adénocarcinome canalaire pancréatique avancé
[7]. Nous avons montré que les tumeurs
des patients atteints de ce cancer avec
un risque élevé de récurrence tumorale
1 Un antimétabolite analogue de la déoxycytidine.
m/s n° 8-9, vol. 31, août-septembre 2015
ou métastatique expriment fortement
le LDLR, ce qui signe un besoin massif en cholestérol des tumeurs les plus
agressives [6].
Quelles sont les causes de cette surexpression du LDLR dans ces tumeurs ? Ce
récepteur étant finement régulé, des
études plus poussées sont nécessaires
pour définir les mécanismes moléculaires qui modifient sa stabilité dans la
tumeur pancréatique. Différents régulateurs post-transcriptionnels du LDLR ont
récemment été découverts : d’une part
les protéines ZFP36L1 et ZFP36L2, qui, par
leur liaison aux régions non traduites en
3’du LDLR, diminuent sa demi-vie [8], et,
d’autre part, les ubiquitine ligases de type
E3 spécifiques du LDLR, IDOL (inducible
degrader of the LDLR), qui induisent son
ubiquitination, puis sa dégradation [9]
(Figure 1B). Enfin, les protéines sécrétées
PCSK9 (proprotein convertase subtilisin/
kexin 9), en se fixant sur la partie extracellulaire du récepteur, entravent, après
l’internalisation de ce dernier, son recyclage de l’endosome vers la membrane
plasmique, et favorisent sa dégradation
dans le compartiment lysosomal [10]
(Figure 1B). Quel que soit le processus
à l’origine de l’expression massive du
LDLR dans l’adénocarcinome canalaire
pancréatique, nous avons démontré que
son extinction bouleverse le ratio de cholestérol libre (forme active) et de cholestérol estérifié (forme stockée) dans
la cellule tumorale [6]. La surcharge en
cholestérol libre résultant de ce déséquilibre est associée à un ralentissement de
729
la progression tumorale. De plus, cette
perturbation métabolique induite par
l’inhibition du LDLR sensibilise les cellules
tumorales à la chimiothérapie.
En conclusion, le ciblage du LDLR ouvre
donc une nouvelle fenêtre thérapeutique pour combattre l’adénocarcinome
canalaire pancréatique. L’identification
d’outils thérapeutiques déstabilisant le
LDLR, ou bloquant son activité, constitue de réelles options pour le développement de nouveaux essais cliniques. ‡
Pancreatic adenocarcinoma: a tumor
highly dependent on lipoproteins
LIENS D’INTÉRÊT
Les auteurs déclarent n’avoir aucun lien d’intérêt
concernant les données publiées dans cet article.
RÉFÉRENCES
1. Hidalgo M. New insights into pancreatic cancer
biology. Ann Oncol 2012 ; 23 (suppl 10) : x135-8.
2. Argiles JM, Busquets S, Stemmler B, Lopez-Soriano FJ.
Cancer cachexia: understanding the molecular basis.
Nat Rev Cancer 2014 ; 14 : 754-62.
3. Aguirre AJ, Bardeesy N, Sinha M, et al. Activated
Kras and Ink4a/Arf deficiency cooperate to produce
metastatic pancreatic ductal adenocarcinoma. Genes
Dev 2003 ; 17 : 3112-26.
4. Guillaumond F, Leca J, Olivares O, et al. Strengthened
glycolysis under hypoxia supports tumor symbiosis and
hexosamine biosynthesis in pancreatic adenocarcinoma.
Proc Natl Acad Sci USA 2013 ; 110 : 3919-24.
5. Bryant KL, Mancias JD, Kimmelman AC, Der CJ. KRAS:
feeding pancreatic cancer proliferation. Trends
Biochem Sci 2014 ; 39 : 91-100.
6. Guillaumond F, Bidaut G, Ouaissi M, et al. Cholesterol
uptake disruption, in association with chemotherapy,
is a promising combined metabolic therapy for
pancreatic adenocarcinoma. Proc Natl Acad Sci USA
2015 ; 112 : 2473-8.
7. Hong JY, Nam EM, Lee J, et al. Randomized doubleblinded, placebo-controlled phase II trial of
simvastatin and gemcitabine in advanced pancreatic
cancer patients. Cancer Chemother Pharmacol 2014 ;
73 : 125-30.
8. Adachi S, Homoto M, Tanaka R, et al. ZFP36L1 and
ZFP36L2 control LDLR mRNA stability via the ERK-RSK
pathway. Nucleic Acids Res 2014 ; 42 : 10037-49.
9. Zelcer N, Hong C, Boyadjian R, Tontonoz P. LXR
regulates cholesterol uptake through Idol-dependent
ubiquitination of the LDL receptor. Science 2009 ;
325 : 100-4.
10. Wang Y, Huang Y, Hobbs HH, Cohen JC. Molecular
characterization of proprotein convertase subtilisin/
kexin type 9-mediated degradation of the LDLR.
J Lipid Res 2012 ; 53 : 1932-43.
11. Bournet B, Dufresne M, Selves J, et al. Oncogène Kras
et cancer du pancréas : trente ans plus tard. Med Sci
(Paris) 2013 ; 29 : 991-7.
NOUVELLE
Le VIH-1 pilote la migration
des macrophages
Christel Vérollet1,2, Shanti Souriant1,2,
Brigitte Raynaud-Messina1,2, Isabelle Maridonneau-Parini1,2
Le VIH-1, un virus qui utilise
les macrophages pour pénétrer dans
les tissus
Le virus de l’immunodéficience humaine
(VIH) est responsable du syndrome de
l’immunodéficience acquise (Sida). Il
cible majoritairement les cellules du
système immunitaire (lymphocytes T CD4
et monocytes/macrophages), grâce auxquelles il peut disséminer dans l’organisme [1, 2]. Alors qu’il exerce un effet
cytotoxique dans les lymphocytes T, il est
bien toléré dans les macrophages. Les
traitements actuels (trithérapie antivirale) permettent de contrôler la charge
virale et de diminuer considérablement
la mortalité due à l’infection, mais ils ne
permettent pas l’élimination complète
du virus. Un des problèmes est la diffi730
m/s n° 8-9, vol. 31, août-septembre 2015
DOI : 10.1051/medsci/20153108010
1 CNRS UMR 5089 ; IPBS (Institut de pharmacologie et de biologie structurale), BP64182, 205, route de Narbonne, 31077
Toulouse Cedex 04, France ;
2 Université de Toulouse ; UPS ; IPBS ; F-31077 Toulouse,
France.
[email protected]
[email protected]
culté à éliminer certaines cellules infectées, appelées réservoirs viraux [11].
L’existence de ces réservoirs oblige les
patients à être traités tout au long de
leur vie. Une sous-population minoritaire de lymphocytes T CD4 « mémoire »,
et les macrophages, font partie de ces
réservoirs [3]. Les macrophages infectés
présents dans les tissus sont peu accessibles aux traitements, et ont une durée
de vie très longue. Leur accumulation
dans certains tissus, dont le cerveau,
est corrélée à la sévérité de la maladie.
Aussi, une stratégie thérapeutique qui
inhiberait l’infiltration des macrophages
infectés dans les tissus constituerait une
avancée majeure. Nous avons donc étudié l’effet du VIH-1 sur la migration des
macrophages, et mis en évidence (article
récemment publié dans Blood [2]) une
reprogrammation des capacités migratoires des macrophages infectés.
Le virus reprogramme les capacités
migratoires des macrophages et
favorise leur infiltration tissulaire
L’accumulation de macrophages infectés dans certains tissus pourrait être
expliquée par une modification de leurs
propriétés migratoires et contribuer ainsi
à la dissémination du virus notamment
dans des régions difficilement accessibles aux traitements [3]. In vivo, les
cellules migrent dans des environnements en deux dimensions (2D) (le long
des parois vasculaires par exemple)
mais également, et le plus souvent, dans
des environnements en 3D. Alors que la.
| 2,593
|
61/hal.archives-ouvertes.fr-hal-01800597-document.txt_1
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 3,739
| 5,536
|
, Société du Savoir et Information Hors norme? Une approche normative des données de la recherche Joachim
SCHÖPFEL Université de Lille – Laboratoire GERiiCO Domaine universitaire Pont de Bois BP 60149 59653 Villeneuve d'Ascq Cedex [email protected]
umé
rôle des normes et standards dans la gestion des données de la recherche, dans l'environnement de la politique de la science ouverte. A partir d'une définition générale des données de la recherche, nous analysons la place et la fonction des normes et standards dans les différentes dimensions du concept des données. En particulier, nous nous intéressons à trois aspects faisant le lien entre le processus scientifique, l'environnement réglementaire et les données de la recherche : les protocoles éthiques, les systèmes d'information recherche et les plans de gestion des données. A l'échelle internationale, es FAIR la d'autres normes et standards, cré une sorte de « de de standards » autour des plateformes et entrepôts, avec un impact direct sur les pratiques scientifiques. Mots-clés : données de la recherche, gestion des données, normes, standards, principes FAIR, science ouverte Abstract : We propose a reflection on the role of norms and standards in the management of research data in the open science policy environment. Starting from a general definition of research data, we analyze the place and function of norms and standards in the different dimensions of the concept of data. In particular, we focus on three aspects that link the scientific process, the regulatory environment, and research data: ethical protocols, research information systems, and data management plans. At the international level, we describe the normative effect of the FAIR principles, which, through the mobilization of other norms and standards, create a sort of "cascade of standards" around platforms and repositories, with a direct impact on scientific practices.
Keywords : research data, data management, norms, standards, FAIR principles, open science COSSI 2018, Tous droits réservés © INTRODUCTION
Le plan national pour la science ouverte, présenté début juillet 2018, a confirmé l'ambition de l'Etat français d'accélérer l'ouverture des données issues de la recherche publique (MESRI 2018). Les mesures et actions annoncées se traduiront d'une manière ou d'une autre en normes, c'est-à-dire en référentiels incontestables et communs, tels que des lois, directives, normes industrielles, recommandations ou bonnes pratiques. Ces nouvelles initiatives et prescriptions s'ajouteront, à différents niveaux de normalisation, aux normes qui sont déjà en place et qui organisent et contrôlent l'écosystème des données de la recherche. L'article propose une vision globale de l'aspect normatif des données de la recherche, en mettant l'accent sur la France et sur les sciences humaines et sociales. Il s'appuie sur l'analyse de documents officiels, d'articles et de rapports, de communications, discours, sites d'initiatives et de projets, publiés plus particulièrement en France (Ministère, CNRS, etc.) et en Europe (Commission), sans pour autant négliger le paysage international (DataCite, RDA, etc.). Le discours sur la science ouverte donne parfois l'impression qu'il s'agit d'un paysage émergent, d'une sorte de no man's land ou plutôt d'un territoire vierge, à l'instar du far west de la conquête du continent américain. Or, il n'en est rien. La gestion des données de la recherche et leur partage ne constituent nullement un sujet « hors norme » mais sont strictement encadrés par des normes de toute sorte – trop pour les uns, pas assez pour les autres. Notre compréhension du concept des normes est pragmatique, partant de l'importance centrale des normes dans la société contemporaine (Perriault & Vaguer 2011) et considérant les es comme un « document établi par consensus et approuvé par un organisme reconnu, qui fournit, pour des usages communs et répétés, des règles, des lignes directrices ou des caractéristiques, pour des activités ou leurs résultats, garantissant un niveau d'ordre optimal dans un contexte donné » (Cacaly 1997). L'
om
ni
prés
ence des
normes
L'organisation de l'accès libre aux données scientifiques fait partie des objectifs de la recherche publique de la France (Code de la Recherche, article L112-1 alinéa e). La volonté d'
ouvrir
les données de la
recherche a
été confirmé
par
le
plan d'action national 2018-2020
Pour une action publique transparente et collaborative dont l'engagement 18 vise à construire un écosystème de la science ouverte dans lequel « la science sera plus cumulative, plus fortement étayée par des données, plus transparente, plus intègre, plus rapide et d'accès plus universel (et qui) induit une démocratisation de l'accès aux savoirs, utile à la recherche, à la formation, à la société » (Etalab 2018, p.57). Le plan national pour la science ouverte a confirmé cette ambition (MESRI 2018). L'objectif est que les données produites par la recherche publique soient progressivement structurées en conformité avec les principes FAIR, préservées et, quand cela est possible, ouvertes. Les mesures annoncées incluent l'obligation d'une diffusion ouverte des données issues de programmes financés sur fonds publics, la généralisation des plans de gestion de données dans les appels à projets, et l'engagement d'un processus de certification des infrastructures de données. D'un point de vue normatif, il s'agit d'un processus de plusieurs étapes, dont l'objectif est de créer un nouvel écosystème fonctionnel et cohérent, par l'interprétation des normes existantes, par leur ajustement et par leur remplacement, avec quelques acteurs-clés (administration centrale, organismes de recherche, établissements de l'enseignement supérieur, agences de financement, éditeurs, industrie de l'information). Qu'il s'agisse de la sécurité des systèmes et des données, de leur traitement, communication ou partage ou bien, de leur description et conservation pérenne, chaque aspect de la gestion et chaque phase du cycle de la vie des données de la recherche fait l'objet de multiples normes, à caractère légal, é
ou industriel. L'expérience utilisateur
Les chercheurs eux-mêmes connaissent généralement assez bien les normes, surtout en ce qui concerne les référentiels d'expertise de leur propre champ d'action, puisque l'efficacité et la qualité de leur travail dépend de la connaissance et de l'application de ces normes. Les enquêtes de terrain montrent des pratiques hétérogènes, plus ou moins formalisées, plus ou moins efficaces et adaptées, dépendant pour beaucoup des équipements et méthodes, des thématiques et disciplines, et des compétences scientifiques (Prost & Schöpfel 2015, Serres et al. 2017, Schöpfel et al. 2018). Les normes sont généralement ressenties comme contraintes, surtout pour des questions de sécurité et de protection des données à caractère personnel, où l'offre institutionnelle en matière de système d'information n'est pas toujours à la hauteur des besoins des chercheurs (Schöpfel 2018). Aussi, malgré leur tradition séculaire de partage des résultats de leur recherche, une partie des chercheurs considère la politique d'ouverture des données comme une contrainte externe, où des finalités politiques et industrielles restent sans lien direct avec leurs objectifs et besoins au quotidien (Kaden 2018).
QUATRE DIMENSIONS NORMATIVES
« Les données de recherche en SHS ne se laissent pas aisément définir et saisir » (Serres et al. 2017). Souvent, les définitions des données en général et des données de la recherche en particulier sont implicites, faites d'anecdotes, de success stories, de descriptions, de listes, d'aspects technologiques, de tendances et d'impact sur les organismes et la société en général. Il y a dix ans, l'OCDE a tenté une définition qui est devenue de facto une référence pour les études dans ce domaine : selon l'OCDE, les données de la recherche sont « des enregistrements factuels (chiffres, textes, images et sons), utilisés comme sources principales pour la recherche scientifique et généralement reconnus par la communauté scientifique comme nécessaires pour valider des résultats de recherche » (OCDE 2006). A regarder de près, on peut distinguer quatre dimensions constitutives au concept des données de la recherche (Schöpfel et al. 2017, cf. figure 1) :
La nature factuelle des données et leur grande diversité. Le caractère communautaire des données. La finalité des données et leur lien avec le processus de la recherche. Le lien des données avec leur traitement documentaire (enregistrement).
Figure 1. Les quatre dimensions du concept des données de la recherche
Ainsi, nous nous proposons d'analyser la place et la fonction des normes et standards dans les différentes dimensions du concept des données, en particulier. Pour chacune des dimensions, nous dégagerons la tension entre plusieurs niveaux de isation, avant tout entre une approche générique au sein des organismes et grandes infrastructures1, et l'insistance des communautés disciplinaires sur la spécificité des instruments et procédures, avec leurs propres normes et standards, mais également avec une revendication assumée d'être différent, « hors norme ». La nature factuelle Il n'y a pas de normes ou de standards proprement dits pour décrire la diversité des données de la recherche. En revanche, plusieurs typologies font office de référentiels de facto, plus ou moins reconnus, utilisés et acceptés. La définition de l'OCDE mentionne quatre types de données à titre d'exemples et comme modèles : chiffres, textes, images et sons, sans intention d'être exhaustif. Christine Borgman (2012) insiste sur la distinction fondamentale entre les données collectées comme ressources primaires de la recherche (« inputs ») et celles produites comme résultats de la recherche (« outputs »). A partir d'une proposition du JISC, Francis André (2015) suggère une classification synthétique des données en fonction des finalités et procédures, de leur génération, davantage liée aux méthodes et outils de la recherche scientifique qu'aux disciplines et thématiques : Les données d'observation ; les données d'expérimentation ; les données de simulation ; les données dérivées ; les données de référence.
1
Cf. les
travaux
de CO
DATA,
par
exemple
Latif
et al
. (2018) et Timmermann
(2018) Si ces deux approches typologiques sont régulièrement citées pour structurer l'analyse et la compréhension du domaine des données de la recherche, deux autres systèmes de classification ont un certain impact, auprès notamment des professionnels et administratifs des services et infrastructures, dans la mesure où ils permettent de décrire et d'indexer d'une manière standardisée les dispositifs des données, l'un – re3data2 – à l'échelle internationale, l'autre – Cat-OPIDoR3 – en France. Le répertoire re3data fait la différence entre treize catégories de données, suivant un méthodologie plutôt empirique que systématique. La répartition des dispositifs par rapport à cette typologie est très inégale. Plusieurs catégories sont très larges, transversales aux disciplines, aux contours mal définis, telles que « raw data » (données brutes) ou « archived data » (données archivées). Une catégorie « other » correspond à une longue traîne d'autres types de données dans un tiers des entrepôts de données. Tout cela ressemble davantage à un référentiel ad hoc, cours de constitution et d'évolution, qu'un référentiel réfléchi, suivant une approche systématique et exhaustive. Cat-OPIDoR de son côté propose une typologie de services et de fonctions, mais pas de classification des données, juste une indexation libre qui ne pourra pas servir de référentiel. Les deux outils n'ont pas de caractère normatif au sens prescriptif, du « ce qui doit être ». En revanche, ils aident, sur un terrain nouveau et dynamique, à déterminer le périmètre et quelques éléments de l'état habituel, de la majorité des cas, ce qui est un autre aspect d'une norme. Sans lien avec ces approches génériques, certains types de données ont fait l'objet d'une normalisation proprement dite. Dans le domaine des SHS, il s'agit avant tout des données à caractère personnel et des données de la santé. Des lois et réglementations déterminent leur nature et encadrent leur finalité, les obligations, droits et traitements autorisés, avec un fort degré de normalisation et de contrainte, aussi bien au plan national (Informatique et Liberté) qu'à l'échelle internationale (RGPD).
Le lien avec la communauté
Le lien étroit avec une communauté est une deuxième dimension importante du concept des données de la recherche. Il faut comprendre communauté au sens large, aussi bien autour des disciplines et thématiques qu'autour des équipements, procédures, méthodes et outils. Du point de vue normatif, cette approche ouvre la perspective sur un univers de recommandations, réglementations, bonnes pratiques et autres standards spécifiques, propres à tel ou tel groupe ou structure scientifique. Quelques exemples : Équipement : des normes et protocoles pour la production de données recueillies grâce à des équipements importants, comme des IRM, accélérateurs de particules, observatoires etc. Méthodologie : des recommandations, bonnes pratiques et règles pour la réalisation d'enquêtes, pour l'exploitation de statistiques, pour la collecte de données à l'aide d'observations etc. Discipline : certaines disciplines se sont dotées de règles plus ou moins élaborées pour la collecte et le traitement de leurs données, comme l'archéologie ou les sciences médicales. Les normes communautaires peuvent aussi s'exprimer à travers les critères de publication des résultats. Par exemple, l'American Psychological Association (APA), la plus importante société savante en psychologie, demande désormais systématiquement l'accessibilité des données de la recherche pour les articles publiés dans les revues 2 https://www.re3data.org/ 3 https://cat.opidor.fr APA créant ainsi une nouvelle situation de « ce qui doit être », ce qui impacte directement les pratiques des chercheurs. A l'instar de l'APA, il est certain que la politique en faveur de la science ouverte incitera d'autres sociétés savantes, associations scientifiques, réseaux, laboratoires et instituts à formuler des recommandations (guidelines) pour une plus grande transparence, pour faciliter la réplicabilité des études et le partage des résultats. Ceci concernera donc la collecte, la production et la gestion des données de la recherche, par le biais de dispositifs (sites) labellisés, d'une description standard (cf. plus loin) et de règles partagées par tous. Parmi ces règles, citons surtout la déontologie scientifique développée et maintenue par les chercheurs eux-mêmes, dont l'intégrité, le respect de la personne, les conflits d'intérêt Nous y reviendrons. Figure 2. Cycle de vie des données (source : inist.fr)
Sous cet aspect, on découvrira un nombre important de normes, standards et recommandations de toutes sorte, tous en lien avec un ou plusieurs aspects de traitement des données de la recherche. Quelques exemples : Les normes de sécurité pour l'archivage numérique des données. Les normes de l'archivage. Le protocole d'échange de données NF ISO 20614 (cadre de transactions pour données et métadonnées). Le standard COUNTER avec la norme SUSHI (NISO) pour la production et la communication des données d'usage des bases de données et autres ressources numériques. Les référentiels pour la production des données liés à certains équipements. Les recommandations pour l'analyse des données (probabilités statistiques etc.). Les incitations au partage. Il ne faut pas imaginer cet écosystème établi selon différents domaines et finalités comme un univers cohérent et fonctionnel. Du point de vue normatif, force est de constater des degrés de normalisation très différents, d'une directive européenne via une loi nationale vers des normes industrielles, des déclarations politiques et des simples incitations, et force est également de relever des incohérences et contradictions, avec des injonctions opposées : par exemple entre l'ouverture des données et une valorisation économique des résultats de la recherche. Les incohérences rendent le système instable et dynamique. L'enregistrement Du point de vue documentaire, ce quatrième aspect fonctionnel est le mieux maîtrisé. Il s'agit de la fonction d'enregistrement, au sens d'Henry Oldenburg (registration) ou, en termes de la gestion des données, de la fonction de curation (Neuroth et al. 2013). A titre d'illustration, on peut évoquer trois niveaux de normalisation : La normalisation des métadonnées cf. Qin 2013) : les standards de métadonnées génériques (Dublin Core), les standards de métadonnées pour les données de la recherche (DataCite Metadata Schema), les standards de métadonnées pour certains types de données (Data Documentation Initiative) La normalisation des identifiants : les identifiants génériques (DOI), les identifiants pour les personnes (ORCID, ResearcherID) et institutions (OrgID), les identifiants à caractère national (IdHAL, les référentiels d'IdRef). La normalisation de la nomenclature de certains types d'objets scientifiques (Nomenclature of Celestial Objects du CDS). Si le DOI fait l'objet d'une norme industrielle internationale (ISO), d'autres formats ou identifiants sont compatibles avec une norme (comme ORCID) ou sont largement reconnus et acceptés comme un standard de facto, comme par exemple le format développé et maintenu par DataCite. Par ailleurs, DataCite annonce un code of practice pour l'attribution des DOI, à l'instar de la démarche du projet COUNTER, ce qui renforcerait encore le caractère standard et contournable de l'identifiant DOI pour les données de la recherche. Sous l'aspect normatif, retenons trois autres éléments : certaines initiatives s'adressent directement aux chercheurs (ORCID, ResearcherID), d'autres davantage aux professionnels de l'information et/ou des données (DOI, métadonnées) ; les initiatives sont plus ou moins capables de faire le grand écart entre une approche générique, important pour l'interopérabilité des systèmes, et la spécificité disciplinaire ou communautaire ; la force normative de ces initiatives est liée au soutien industriel et/ou politique.
LA FORCE DES NORMES
Qu'est-ce qui fait la force des normes? S'agit-il du risque d'une sanction, d'un caractère obligatoire, d'une autre forme de contrainte? Il est certain qu'il faut discerner divers degrés, voire diverses natures de force, sans confondre force obligatoire et force contraignante, caractère impératif, incitatif ou inspiratoire (au sens de Thibierge 2009). Regardons à titre d'exemple trois domaines faisant le lien entre le processus scientifique, l'environnement réglementaire et les données de la recherche : le plan de gestion, le protocole éthique, et le système d'information recherche. Le plan de gestion En tant que tel, un plan de gestion des données de la recherche fait partie des bonnes pratiques d'un chercheur, de la même manière qu'un plan de gestion d'un projet avec ses work packages, ses échéances et livrables. Sous cet angle, son caractère normatif serait de l'ordre incitatif ou inspiratoire, basé sur des recommandations, modèles et formations, mis à disposition par les établissements et organismes, à l'instar des Universités Diderot ou Descartes, du JISC (avec DMPonline) et du CNRS (avec DMPOPIDoR). La réalité est plus compliquée dans la mesure où ces plans ont fait leur apparition avant tout avec les cahiers des charges du programme européen H2020, d'abord dans une version relativement simple (cinq questions) et comme une option volontaire, désormais dans une version conforme aux principes FAIR (cf. plus loin) et, du moins pour une partie du programme, avec un caractère obligatoire. Rédiger un plan de gestion est donc nécessaire pour déposer une demande de financement et obtenir un budget de recherche pour certains domaines du programme H2020. C'est une contrainte forte qui, d'après les documents de travail pour le 9e programme cadre de l'UE, se généralisera sans doute à l'avenir pour l'ensemble des domaines scientifiques et appels à projets de la Commission Européenne. Néanmoins, à ce jour, aucune sanction ne semble prévue ou applicable en cas de nonrespect du plan de gestion déposé. La CE insiste sur deux mises à jour du plan : une version intermédiaire à mi-parcours, l'autre à la fin, présentant le bilan du projet. Mais apparemment il n'y a pas de contrôle ou d'audit systématique ou ponctuel pour vérifier le traitement des données. Quant aux programmes scientifiques en France, le plan d'action pour la science ouverte prévoit que les appels à projets de l'ANR contiennent à l'avenir l'obligation d'un plan de gestion. On connaîtra dans quelques mois, fin 2018 ou 2019, la nature exacte sera cette obligation, si elle sera accompagnée de contrôles etc.
Le protocole éthique
Protocole éthique et plan de gestion ont des liens organiques. Chaque protocole éthique contient un chapitre consacré à la définition, à la collecte, au traitement et à la conservation des données en question. De son côté, le plan de gestion pose systématiquement la question d'une éventuelle dimension éthique qui serait à développer, le cas échéant. Cependant, la force normative du protocole éthique est bien plus complexe que celle du plan de gestion, pour deux raisons. D'une part, l'aspect éthique des données de la recherche touche des domaines très différents, comme les données personnelles, le respect des personnes et les conflits d'intérêt, mais également la sécurité, la propriété intellectuelle et la créd des données (cf. Jacquemin et al. 2018). D'autre part, ces différents domaines font appel à des normes de nature très diverse. Citons par exemple la politique scientifique des organismes de recherche (cf. les travaux et avis du COMETS du CNRS) ou les recommandations, consignes et bonnes pratiques des établissements et communautés scientifiques. Citons également les cahiers des charges des programmes de recherche (cf. la politique en matière d'éthique et d'intégrité scientifique adoptée par le conseil d'administration de l'ANR en 2014 ; cf. les ethics reviews du programme H2020 ; cf le Code de Nuremberg pour la recherche biomédicale). Les normes ou labels industriels (pour la sécurité des dispositifs), les lois et directives sur les données personnelles, la santé publique et la bioéthique sont d'autres exemples. Il existe donc ici toute la gamme des contraintes, allant de l'obligation légale à l'incitation plus ou moins forte, avec le risque de sanction en cas de non-respect, par la jurisprudence, par les institutions et/ou par d'autres communautés scientifiques (sociétés savantes, associations, comités de rédaction etc.).
Le système d'information recherche
Un système d'information recherche sert entre autre à l'évaluation du fonctionnement et de la performance des équipes, structures, établissements et organismes scientifiques. Considérant les données de la recherche comme résultats du travail scientifique, il paraît normal qu'elles fassent partie des éléments évalués, tout comme les publications ou les brevets. Les critères d'évaluation sont imposés par les agences de financement et d'évaluation; ils présentent le risque d'un impact négatif sur l'allocation des ressources humaines et financières en cas de non-conformité. Ces critères sont décidés et communiqués par les agences et trouvent leur reflet dans le modèle et le format des systèmes d'information recherche. En France, pour l'instant, les données de la recherche ne font pas partie des critères évalués lors des campagnes du HCERES. D'autres pays les ont déjà ajoutées au catalogue des domaines à évaluer; les formats (dont CERIF, l'unique format standardisé dans ce domaine, maintenu par euroCRIS), les produits des éditeurs et d'autres sociétés (comme le système PURE d'Elsevier ou Converis de Clarivate) sont capables de les évaluer. Or, quels sont ces critères? L'analyse des dispositifs, formats et agences d'évaluation montre qu'il s'agit avant tout des critères de gestion, en conformité notamment avec les principes FAIR. En revanche, l'évaluation ne s'intéresse pas ou peu à la volumétrie ou à la qualité des données, contrairement par exemple à l'évaluation des publications (Schöpfel et al. 2016). A ce jour, la force normative d'une telle évaluation est donc liée au caractère obligatoire de l'évaluation scientifique, imposée par la loi ou un arrêté, et par la légitimité de l'organisme désigné (en France, le HCERES) pour déterminer ses propres critères d'évaluation. Mais cette force normative s'appuie également sur la standardisation de facto des critères et formats d'évaluation des systèmes d'information recherche, et par ce biais, sur des normes de type industriel, même s'ils n'ont pas encore faire l'objet d'une norme ISO, AFNOR, DIN ou NISO.
| 8,250
|
30/pastel.archives-ouvertes.fr-pastel-00004738-document.txt_4
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 9,388
| 16,059
|
Nous utilisons les conditions suivantes pour les multiplicateurs υ1 et υ2 associés aux liaisons unilatérales : υ1 0, υ1 z = 0 et υ2 0, υ2 (1 − z) = 0 (2.163) La somme de l'énergie libre W et du potentiel Wl duquel dérivent les liaisons internes fournit l'expression du lagrangien L : def (2.164)
L = W + Wl = L(ε, T, εei, εp1, εvp 2, αi, p2, z) 2 1 1 1 e 2 e 2 th 2 λ1 T r(ε1 ) + 2μ1 T r(ε1 ) + W1 (T ) + H1 α1 + (1 − z) λ2 T r(εe2 ) =z 2 3 2 1 Q2 1 − exp(−b2 p2 ) + 2μ2 T r(εe2 )2 + W2th (T ) + H2 α22 + Q2 p2 − 3 b2 p vp e th e th − ω z(ε1 + ε1 + ε1 ) + (1 − z)(ε2 + ε2 + ε2 ) − ε − υ1 z − υ2 (1 − z) 84
2.3 Modélisation du comportement du matériau multiphasé Chapitre 2 : Nouvelle modélisation du comportement du matériau multiphasé 2.3.4.3 Lois d'état
Les équations d'état sont définies à l'aide du lagrangien ci-dessus, i = (1, 2) : ∂L =σ ∂ε ∂L
= Xi
∂αi
∂L = R2 ∂r2 ∂L = σ1 ∂εp1 ∂L = σ2 ∂εvp 2 ∂L =0 ∂εe1 ∂L =0 ∂εe2 ∂L =0 ∂ω ∂L =A ∂z ⇒ σ=ω (2.165) ⇒ 2 Xi = −zi Hi αi 3 (2.166) ⇒ R2 = −(1 − z)Q2 1 − exp(−b2 p2 ) (2.167) ⇒ σ1 = zω (2.168) ⇒ σ2 = (1 − z)ω (2.169) ⇒ ω = λ1 T r(εe1 ).1 + 2μ1 εe1 (2.170) ⇒ ω = λ2 T r(εe2 ).1 + 2μ2 εe2 (2.171) ⇒ ⇒ p vp e th (2.172) z(εe1 + εth 1 + ε1 ) + (1 − z)(ε2 + ε2 + ε2 ) − ε = 0 1 Q2 e 2 e 2 A= λ2 T r(ε2 ) + 2μ2 T r(ε2 ) + Q2 p2 − 1 − exp(−b2 p2 ) 2 b2 1 1 th 2 e 2 e 2 − H2 α2 λ1 T r(ε1 ) + 2μ1 T r(ε1 ) + W1th (T ) + W2 (T ) + 3 2 1 p vp 2 e th e th (2.173) + H1 α1 + ω (ε1 + ε1 + ε1 ) − (ε2 + ε2 + ε2 ) + υ1 − υ2 3
Les équations (2.165), (2.170) et (2.171) nous permettent d'écrire :
1 + ν1 σ− E1 1 + ν2 εe2 = σ− E2 εe1 = ν1 T r(σ)1 E1 ν2 T r(σ)1 E2 (2.174) (2.175)
Reportant ces deux équations dans l'équation (2.172), nous obtenons la loi de comportement du matériau multiphasé : 1 + ν ν1 ν2 2 σ− T r(σ)1 + (1 − z) σ− T r(σ)1 ε=z E1 E1 E2 E2 p vp th + z(εth 1 + ε1 ) + (1 − z)(ε2 + ε2 ) 1 + ν 2.3.4.4 1 (2.176)
Lois d'évolution des variables internes
La loi de comportement sera complétée par des lois d'évolution des variables dissipatives. Ces dernières sont obtenues à l'aide d'un pseudo-potentiel de dissipation qui est une fonction convexe, positive, nulle à l'origine et semi-continue inférieurement.
Chapitre 2 : Nouvelle modélisation du comportement du matériau multiphasé
Pour la phase ferritique, les évolutions de la déformation plastique et de l'écrouissage sont déduites d'un pseudo-potentiel de dissipation Φ∗mécanique qui est une fonction des forces thermodynamiques associées à ces variables internes. Ce pseudo-potentiel de dissipation Φ∗mécanique est égal à la fonction indicatrice d'un convexe défini par f1 (σ1, X1 ) 0. f1 (σ1, X1 ) est la fonction de charge de la phase ferritique et est donnée par : 3 def (2.177) (σ1 + X1 ) : (σ1 + X1 ) − zσ1y f1 = f1 (σ1, X1 ) = 2 ̃ ̃ ̃ ̃ • σ1y qui est la limite d'élasticité de la phase ferritique, • la notation M désigne la partie déviatorique du tenseur M, d'où M = M − (1/3)(T rM ).1. ̃ ̃ Les lois d'évolution de la déformation plastique et de l'écrouissage de la phase ferritique s'écrivent à l'aide de la loi de normalité : ∂f1 ∂σ1 ∂f1 α̇1 = λ1 ∂X1 ε̇p1 = λ1 (2.178) (2.179) λ1 est le multiplicateur plastique, il est déterminé par des conditions de charge et décharge : f1 = 0 et f ̇1 = 0 (2.180) En ce qui concerne les évolutions de la déformation viscoplastique et de l'écrouissage de l'austénite, le pseudo-potentiel de dissipation suivant a été utilisé [Lemaitre et
Φ∗2 ( J2 (σ 2 + X 2 ) + R2 − (1 − z)σ2y vp = (η2 + 1)(1 − z)η2 κη22 ̃ ̃ η2 +1 γ2 H 2 3γ2 + X : X − (1 − z) α :α 4H2 (1 − z) ̃ 2 ̃ 2 3 ̃2 ̃2 def • J2 (σ 2 + X 2 ) = 32 (σ 2 + X 2 ) : (σ 2 + X 2 ) = J22, ̃ ̃ ̃ ̃ ̃ ̃ • σ2y est la limite d'élasticité de l'austénite, γ2 est le coefficient d'écrouissage cinématique de l'austénite, κ2 et η2 sont des coefficients de viscosité de l'austénite. Ces paramètres du matériau peuvent dépendre de la température. Les évolutions de la déformation viscoplastique et des variables d'écrouissage de l'austénite s'écrivent alors : où
∂
Φ∗2 v
p ∂σ2 ∂Φ∗2 vp
α
̇
2
= ∂X2 ∂Φ∗2 vp 2
= ∂R2 ε̇vp 2 = ⇒ ⇒ ⇒ σ2 + X 2
3
ε̇vp ̃ ̃ 2 = 2 2 J2 (σ 2 + X 2 ) ̃ ̃ vp α̇2 = ε̇2 − γ2 α2 2 η2 J2 (σ 2 + X 2 ) + R2 − (1 − z)σ2y 2 = ̃ ̃ (1 − z)κ2 (2.182)
(
2.183) (2.184)
Pour l'évolution de la variable métallurgique, comme dans les cas précédents, nous avons utilisé le pseudo-potentiel de dissipation Φ∗métallurgie sous la forme : 86
2.3
Modél
isation
du comportement du matériau multiphasé Chapitre 2 : Nouvelle modélisation du comportement du matériau multiphasé
1 Φ∗métallurgie = A2 δ1 (δ2 − z) 2 δ1 et δ2 sont des paramètres du matériau. Nous obtenons alors la cinétique de transformations de phases : (2.185) ∂Φ∗métallurgie (2.186) = Aδ1 (δ2 − z) ∂A L'influence de l'état de contraintes sur la cinétique de transformations de phases est toujours négligée, la force thermodynamique A associée à la variable métallurgique z s'écrit donc : ż = A = W2th (T ) − W1th (T ) (2.187) With (T ) est la partie purement thermique de l'énergie libre de la phase i. 2.3.4.5 La dissipation intrinsèque s'écrit : D = (σ1 : ε̇p1 +
X
1 :
α̇1
) + (
σ
2 :
ε
̇vp 2 +
X
2 : α̇2
+
R2 2 )
+
A.ż (2
.188
) Puisque la positivité de chaque membre a été respectivement démontrée dans les sections (2.3.1.5) et (2.3.3.5), la positivité de la dissipation intrinsèque est également assurée dans ce cas.
2.3.4.6 La prise compte de la plasticité de transformation
Dans cette section, nous allons améliorer le modèle précedent en prenant en compte la plasticité de transformation. Comme dans les cas précédents, cela s'effectue par l'ajout d'une variable interne marcroscopique εpt représentant la déformation de la plasticité de transformation. 2.3.4.6.1 Variables d'état et énergie libre
On suppose que l'état du matériau peut être décrit par les variables d'état suivantes : • ε : la déformation totale macroscopique et la température T, pt • ε : la plasticité de transformation, • z : la proportion volumique de la phase ferritique, • ε1, ε2 : respectivement la déformation totale individuelle de la phase ferritique et de l'austénite, p : la déformation plastique individuelle de la phase ferritique, • ε1 • εvp : la déformation viscoplastique individuelle de l'austénite, 2 • α1, α2 : respectivement la variable d'écrouissage cinématique de la phase ferritique et de l'austénite, • r2 : la variable d'écrouissage isotrope de l'austénite. Pour l'austénite, la déformation viscoplastique cumulée est utilisée comme variable d'écrouissage isotrope et son expression est donnée par l'équation (2.152). Les déformations totales individuelles des phases sont respectivement présentées par l'équation (2.153) pour la phase ferritique et par l'équation (2.154) pour l'austénite. La déformation thermique de chaque phase est donnée par l'équation (2.155).
Chapitre 2 : Nouvelle modélisation du comportement du matériau multiphasé
Le modèle rhéologique en série est toujours considéré, nous utilisons donc des conditions suivantes pour les variables d'état : p vp e th pt z(εe1 + εth 1 + ε1 ) + (1 − z)(ε2 + ε2 + ε2 ) + ε − ε = 0 avec les liaisons unilatérales (2.189) z 0 et (1 − z) 0 Le potentiel duquel dérivent ces liaisons est défini par : p vp e th pt Wl
= −ω z(εe1 + εth + ε ) + (1 − z)(ε + ε + ε ) + ε − ε − υ1 z − υ2 (1 − z) 1 2 1 2 2 (2.190) ω, υ1 et υ2 sont des multiplicateurs de Lagrange. Nous avons les conditions suivantes pour les multiplicateurs υ1 et υ2 associés aux liaisons unilatérales : υ1 0, υ1 z = 0 et υ2 0, υ2 (1 − z) = 0 (2.191) En négligeant l'énergie d'interaction entre les deux phases dans le mélange, l'énergie libre du matériau multiphasé s'écrit : def W = W(εei, αi, pi, T ) = zW1 + (1 − z)W2 i = (1, 2) (2.192) La densité de l'énergie libre Wi de la phase i est la somme d'une partie thermoélastique et une partie associée à l'écrouissage, W1p (α1 ) pour la phase ferritique et W2p (α2, p2 ) pour l'austénite : Withe (εei, T )
def Wi = Wi (εei, αi, p2, T ) = Withe (εei, T ) + Wip (αi, p2 ) i = (1, 2)
(2
.193
) L'expression de la partie thermoélastique a été donnée par l'équation (2.157). Nous reprenons également l'équation (2.158) pour la partie associée à l'écrouissage de la phase ferritique et l'équation (2.159) pour la partie associée à l'écrouissage de l'austénite. Nous obtenons enfin l'expression du lagrangien L en connaissant l'énergie libre W du mélange et le potentiel Wl :
def L = W + Wl = L(ε, T, εpt, εei, εp1, εvp (2.194) 2 αi, p2, z) 2 2 1 1 1 =z λ1 T r(εe1 ) + 2μ1 T r(εe1 )2 + W1th (T ) + H1 α21 + (1 − z) λ2 T r(εe2 ) 2 3 2 1 Q 2 1 − exp(−b2 p2 ) + 2μ2 T r(εe2 )2 + W2th (T ) + H2 α22 + Q2 p2 − 3 b2 p vp e th e th pt − ω z(ε1 + ε1 + ε1 ) + (1 − z)(ε2 + ε2 + ε2 ) + ε − ε − υ1 z − υ2 (1 − z)
2.3.4.6.2
Lois d'état
Les équations d'état définissant les forces thermodynamiques associées aux variables d'état s'écrivent, (i = 1) pour la phase ferritique et (i = 2) pour l'austénite :
88
2.3 Modélisation du comportement du matériau multiphasé Chapitre 2 : Nouvelle modélisation du comportement du matériau multiphasé
∂
L
=σ
∂
ε
∂L = Xi ∂αi ∂L = R2 ∂r2 ∂L = σ1 ∂εp1 ∂L = σ2 ∂εvp 2 ∂L =X ∂εpt ∂L =0 ∂εe1 ∂L =0 ∂εe2 ∂L =0 ∂ω ∂L =A ∂z ⇒ σ=ω (2.195) ⇒ 2 Xi = −zi Hi αi 3 (2.196) ⇒ R2 = −(1 − z)Q2 1 − exp(−b2 p2
) (2.197) ⇒ σ1 = zω (2.198) ⇒ σ2 = (1 − z)ω (2.199) ⇒ X=ω (2.200) ⇒ ω
=
λ1 T r(εe1 ).1 + 2μ1 εe1 (2.201) ⇒
ω
=
λ2 T r(
εe
2
).1 +
2
μ
2
εe2
(2.202) ⇒
⇒ p vp e th pt (2.203) z(εe1 + εth 1 + ε1 ) + (1 − z)(ε2 + ε2 + ε2 ) + ε − ε = 0 Q2 1 e 2 e 2 1 − exp(−b2 p2 ) A= λ2 T r(ε2 ) + 2μ2 T r(ε2 ) + Q2 p2 − 2 b2 1 1 th 2 e 2 e 2 − H2 α2 λ1 T r(ε1 ) + 2μ1 T r(ε1 ) + W1th (T ) + W2 (T ) + 3 2 1 p vp 2 e th e th + H1 α1 + ω (ε1 + ε1 + ε1 ) − (ε2 + ε2 + ε2 ) + υ1 − υ2 (2.204) 3
Les équations (2.195), (2.201) et (2.202) permettent d'écrire : 1 +
ν1 σ− E1 1 + ν2 σ− εe2 = E2 εe1 = ν1 T r(σ)1 E1 ν2 T r(σ)1 E2
(2.205) (2.206) Reportant ces équations dans l'équation (2.203), la loi de comportement du matériau multiphasé s'écrit : 1 +
ν ν1 1 p σ− T r(σ)1 + z(εth (2.
207)
ε = εpt + z 1 + ε1 ) E1 E1 1 + ν ν2 2 vp + (1 − z) σ− T r(σ)1 + (1 − z)(εth 2 + ε2 ) E2 E2
2.3.4.6.3 Les lois d'évolution
Les lois d'évolution des variables internes sont définies à partir des pseudo-potentiels de dissipation. Pour la phase ferritique, la fonction de charge exprimée par l'équation (2.177) est reprise et les évolutions de la déformation plastique et de l'écrouissage sont données par les équations
2.3 phas Chapitre 2 : Nouvelle modélisation du comportement du matériau multiphasé ((2.178) et (2.179)). Les conditions de charge et décharge (cf. équation (2.180)) permettent de déterminer le multiplicateur plastique. Les équations ((2.182), (2.183) et (2.184)) représentent les évolutions de la déformation viscoplastique et de l'écrouissage de l'austénite en utilisant un pseudo-potentiel de dissipation donné par l'équation (2.181).
L'
équation
(
2.185) exprime le pseudo-potentiel de dissipation métallurgique et la cinétique de transformations de phases est donnée par l'équation (2.186).
L'effet de l'état de contraintes sur la cin
étique de
transformations
de
phase
s
est toujours
nég
ligé
, la
force thermo
dynamique A associée
à
la variable mét
allurg
ique z
s'
écrit comme
l'équation (
2.18
7).
Concernant la plasticité de transformation, le taux d'évolution de cette déformation est déduit à partir du pseudo-potentiel de dissipation Φ∗pt qui est présenté par l'équation (2.91) et l'équation (2.92) représente l'évolution de déformation de plasticité de transformation. La loi de comportement est complètement définie par les équations d'état (de (2.195) à (2.204)) et les équations d'évolution des variables dissipatives
. Finalement
, nous pouvons exprimer la dissipation intrinsèque dans ce cas comme suit :
pt D = (σ1 : ε̇p1 + X1 : α̇1 ) + (σ2 : ε̇vp 2 + X2 : α̇2 + R2 2 ) + X : ε̇ + A.ż (2.208)
Comme nous l 'avons démontré dans les sections ((2.3.1.5), (2.3.2.5) et (2.3.3.5)), la positivité de chaque terme à droite assure la positivité de la dissipation intrinsèque.
2.3.4.7 Remarques
Dans ce paragraphe 2.3.4, nous avons présenté le modèle de comportement pour un matériau multiphasé dans lequel le comportement de la phase ferritique est élastoplastique et celui de l'austénite est élastoviscoplastique. La plasticité de transformation a également été prise en compte. Le mélange de deux phases a été considéré et la variable z représente la proportion volumique de la phase ferritique. Ainsi que nous le verrons dans le paragraphe suivant, l'identification des paramètres du modèle métallurgique s'effectuera en assurant la positivité de ż, c'est-à-dire que nous avons considéré une transformation de l'austénite en phase ferritique (ferrite, bainite ou martensite) pour ce modèle. 2.3.5 Discussions
1- Dans les modèles proposés, la cinétique de transformation s'écrit : ż = Aδ1 (δ2 − z) (2.209) Nous avons utilisé cette même cinétique pour différentes transformations de phases : transformations par diffusion et transformations martensitiques. Pour les aciers au carbone, les transformations martensitiques possèdent une propriété atherme : la proportion de la martensite formée à une température donnée ne dépend que de celle-ci et ne s'accroît que si la température diminue. Donc, l'utilisation de la cinétique de 90
2.3 Modélisation du comportement du matériau multiphasé Chapitre 2 : Nouvelle modélisation du comportement du matériau multiphasé type (2.209) pour les transformations martensitiques
peut parfois poser problème ; par exemple dans le cas où il y a un maintien isotherme au cours de la transformation martensitique. En ce qui nous concerne, les cycles thermiques de soudage se composent généralement d'un chauffage suivi d'un refroidissement continus sans maintiens isothermes, le modèle proposé est donc valable dans ces cas. Ainsi, la cinétique de transformations de phases proposée est valable pour les chauffages et les refroidissements continus sans maintiens isothermes. La cinétique de transformations de phases au chauffage s'écrit : T − Td + ż = Aδ1 (δ2 − z) T − Td (2.210) X+ désigne la partie positive de X, Td est la température de début de l'austénitisation. La cinétique de transformations au refroidissement (transformations de l'austénite en ferriteperlite, en bainte ou en martensite) s'écrit généralement : Td − T + Td − T Td est la température de début de la transformation considérée.
ż = Aδ1 (δ2 − z) (2.211)
2- Dans les modèles présentés ci-dessus, nous avons considéré un mélange de phases avec une seule transformation. Cependant, une situation plus complexe peut être rencontrée dans le cas d'un mélange de plusieurs phases (plus de deux phases) avec plusieurs transformations simultanées. Pour les transformations au refroidissement (transformation de l'austénite en ferrite, en bainite ou en martensite), à partir de l'austénite formée en fin de chauffage, on peut obtenir éventuellement différentes phases ferritiques selon la vitesse de refroidissement. A la lumière de l'étude bibliographique et conformément à ce qui figure sur les diagrammes T.R.C. (Transformation en Refroidissement Continu), il est évident que pour la grande majorité des refroidissements usuels, les intervalles de température où ces transformations peuvent se produire sont différents l'un de l'autre. Cela nous permet d'obtenir pour chaque température en phase de refroidissement une seule transformation de phase. Nous supposons donc pour nos modèles qu'à une température donnée au refroidissement, une seule transformation de phases est possible. Les modèles proposés pour la cinétique de transformations de phases sont donc toujours valables. En revanche, pour les transformations au chauffage, à partir des phases ferritiques initiales (état métallurgique de départ) et lorsque la température atteint la température de début d'austénitisation, plusieurs transformations des phases ferritiques en austénite peuvent se produire simultanément. Dans ce cas, pour que les modèles proposés restent encore valables, nous supposons qu'une transformation mettant en jeu deux phases n'est pas affectée par les autres phases. Cette hypothèse a été également utilisée par [Leblond et Devaux, 1984] pour la généralisation de leur modèle métallurgique dans le cas où plusieurs transformations peuvent avoir lieu simultanément. La cinétique de transformations de phases proposée dans les modèles présentés s'applique donc pour chaque transformation d'une phase ferritique en austénite et nous obtenons un ensemble de transformations de phases deux à deux (une phase ferritique et une phase austénitique). En ce qui concerne le comportement mécanique du mélange de plusieurs phases (plus de deux phases), notre approche peut également s'appliquer en écrivant la déformation totale du matériau multiphasé ε sous la forme (mélange de i phases) :
Chapitre 2 : Nouvelle modélisation du comportement du matériau multiphasé ε= zi
εi (2.
212) i εi est la déformation totale individuelle de la phase i, zi est la proportion volumique de la phase i. Si la plasticité transformation est considérée, nous écrivons : zi εi + εpt (2.213) ε= i ε désigne la déformation de plasticité de transformation. De la même manière que pour les modèles présentés ci-dessus, les équations d'état, ainsi que les lois d'évolution des variables dissipatives de chaque phase métallurgique, sont identiques à l'écriture précédente et les formes de ces équations restent inchangées par rapport aux cas précédents.
pt 2.3.6
La loi de comportement élastoplastique nécessite la connaissance des paramètres suivants pour différentes températures : • module de Young E et coefficient de Poisson ν, • coefficient de dilatation thermique k, • limite d'élasticité σ y, • module d'écrouissage cinématique H. Ces paramètres peuvent être obtenus à partir des essais uniaxiaux de traction et de compression effectués à différentes températures et pour différentes phases métallurgiques. Pour le comportement élastoviscoplastique, il nous faut identifier les paramètres suivants pour différentes températures : • module de Young E et coefficient de Poisson ν, • coefficient de dilatation thermique k, • limite d'élasticité σ y, • termes relatifs à la viscosité κ et η, • modules d'écrouissage H, γ, Q et b. L'identification de ces paramètres nécessite des essais uniaxiaux cycliques en traction et compression, des essais de relaxation et de fluage ou des essais d'écrouissage simples à différentes vitesses de déformation. Ces essais doivent être réalisés à différentes températures et pour différentes phases métallurgiques. Le modèle métallurgique de transformations microstructurales nécessite la connaissance des trois paramètres : δ1, δ2 et la force A. Ainsi que nous l'avons évoqué dans les paragraphes ci-dessus, l'influence de l'état de contraintes et de déformations sur la cinétique de transformations de phases est négligée dans ce travail. La force thermodynamique A associée à la variable métallurgique z s'écrit alors : A = W2th (T ) − W1th (T ) (2.214) With (T ) est la partie purement thermique de l'énergie libre de la phase i. Nous rappelons que cette quantité d'énergie est liée à la chaleur spécifique par la relation :
2.3 Modélisation du comportement du matériau multiphasé Chapitre 2 : Nouvelle modélisation du comportement du matériau multiphasé
∂i2 With (T ) (2.215) ∂T 2 cεi est la chaleur spécifique à déformation constante de la phase i et dépend éventuellement de la température. Nous supposons que la chaleur spécifique est une fonction linéaire de la température, cela permet d'écrire : cεi = −T cεi = ai T + bi i = (1, 2) (2.216) La connaissance des valeurs de chaleur spécifique en fonction de la température permet de déterminer les coefficients ai et bi pour chaque phase métallurgique. D'autre part, reportons la relation (2.216) dans l'équation (2.215), son intégration donne : 1 With (T ) = − ai T 2 − bi T lnT + ci T + di 2 ci et di sont des constantes d'intégration. La force thermodynamique A devient alors :
i = (1, 2) A(T ) = β1 T lnT + β2 T 2 + β3 T + β4 (2.217) (2.218)
où
β1 = b1 − b2
et
β2
=
(a1 − a
2 )
/2
(2.219) Si Td désigne la température de début de transformation, on doit avoir
: A(Td ) = β1 Td lnTd + β2 Td2 + β3 Td + β
4 = 0 (2.220) Pour une transformation isotherme, la cinétique peut s'écrire : ż = A(T )(δ2 − z) (2.221) L'intégration de l'équation (2.221) nous donne : δ2 = z + exp(−A(T )t + e) (2.222) e est une constante d'intégration. De par le manque de données pour les transformations isothermes de l'acier étudié (le diagramme T.T.T (Transformation-Temps-Température) de l'acier 16MND5 - acier des cuves de réacteurs nucléaires), nous avons dû identifier les paramètres de l'équation (2.222) avec des données des transformations anisothermes. L'observation des courbes de transformations isothermes ainsi que des courbes dilatométriques avec des vitesses de refroidissement constantes nous permet de supposer que : • les courbes de transformations de phases sont de formes sigmoïdales, • les vitesses de transformations de phases sont deux fois plus lentes en début et en fin de transformation qu'au milieu de la transformation. Ces deux hypothèses nous permettent d'utiliser les conditions suivantes :
Chapitre 2 : Nouvelle modélisation du comportement du matériau multiphasé
• à l'instant t = 0, la proportion volumique de la phase produite est fixée à z = 0, à l'instant t = t1 = |Tf − Td |/(Ṫ ), la proportion volumique de la phase produite est fixée à z = zmax, où zmax est la proportion volumique maximale atteinte de la phase produite et Ṫ est la vitesse moyenne de variation de la température. Dans ce travail, cette vitesse moyenne est déterminée à la température de début de l'austénitisation pour les transformations au chauffage et à la température de début de transformation bainitique pour les transformations au refroidissement. • à l'instant t = t2 = |Tf − Td |/2(Ṫ ), la proportion volumique de la phase produite est fixée à z = zmax /2. |X| désigne la valeur absolue de X, Td et Tf sont respectivement les températures de début et de fin de chaque transformation considérée. 2.4 Conclusion
Nous avons présenté dans ce chapitre les modèles de comportement utilisés dans la simulation des structures sous chargements thermomécaniques sévères avec des transformations microstructurales à l'état solide. Ces modèles entrent dans le cadre des matériaux standards généralisés avec des liaisons internes présentant des relations entre les variables d'état. Le cadre théorique utilisé offre la possibilité de prendre en compte tous les phénomènes mis en jeu d'une manière couplée. Pour la clarté de la présentation, un mélange de deux phases avec une seule transformation a été considéré. Dans les modèles proposés, nous avons supposé de connaître le comportement mécanique propre à chacune des phases présentes dans le mélange. Ces modèles ne donnent pas explicitement le comportement du mélange car celui-ci est obtenu par une homogénéisation basée sur l'hypothèse de Reuss (modèle en série). L'originalité de notre modélisation réside dans le fait que chaque phase du mélange peut avoir individuellement un comportement nonlinéaire : élastoplastique ou élastoviscoplastique. La plasticité de transformation (TRiP) peut également être prise en compte en ajoutant une nouvelle variable macroscopique εpt représentant la déformation de plasticité de transformation. A travers des modèles présentés, la généralité de la démarche adoptée est mise en évidence. En effet, l'ensemble des phénomènes peuvent être pris en compte dans un seul modèle, de plus, les différentes phases métallurgiques peuvent présenter des comportements individuels différents. Pour un mélange de trois phases métallurgiques ou plus avec plusieurs transformations simultanées, les modèles précédents peuvent être étendus pour qu'ils restent valables. Pour cela, nous avons supposé qu'une transformation mettant en jeu deux phases n'est pas affectée par les autres phases. Le chapitre suivant consacré à la validation numérique des modèles proposés avec le logiciel COMSOL Multiphysics. Deux essais seront simulés. Ces essais sont représentatifs des phénomènes rencontrés lors d'une opération de soudage ou de traitement thermique. Tous les couplages thermiques, mécaniques et métallurgiques peuvent être mis en jeu. Les comparaisons entre nos résultats de calculs et les résultats expérimentaux permettent d'estimer la performance de notre approche. Chapitre 3 Simulations numériques 3.1 Introduction
Les modèles présentés dans le chapitre précédent sont consacrés à la modélisation du comportement des aciers servant à simuler des structures sous chargements thermomécaniques sévères avec des transformations microstructurales à l'état solide. Concrètement, ils peuvent être utilisés pour simuler les procédés de soudage ou de traitement thermique des aciers. L'objectif de ce troisième chapitre est de valider numériquement la pertinence des modèles proposés. Pour cela, deux simulations numériques ont été réalisées. Elles consistent à modéliser numériquement des essais issus de la littérature ([Cavallo, 1998], [Petit-Grostabussiat, 2000]). Ces essais sont représentatifs des phénomènes rencontrés dans opération de soudage ou de traitement thermique, tous les couplages thermiques, mécaniques et métallurgiques peuvent être mis en jeu. Les résultats relatifs à chaque modèle seront successivement présentés. Ces résultats seront comparés aux mesures expérimentales ainsi qu'aux résultats des calculs numériques issus de la littérature. Cela permettra d'abord de montrer la performance des modèles proposés pour le calcul des structures soumises à des chargements thermomécaniques en présence de transformations microstructurales et ensuite, d'analyser l'influence des différentes lois de comportement sur les réponses finales des structures. Enfin, des résultats de calcul dans le cas où la plasticité de transformation est prise en compte seront comparés aux résultats issus du cas sans plasticité de transformation. Ces comparaisons nous permettront de mettre en évidence le rôle de la plasticité de transformation sur la distribution finale des contraintes résiduelles dans la structure. 3.2 Ces essais ont été réalisés à L'INSA de Lyon et une description complète sur ces essais peut être consultée dans ([Cavallo, 1998], [Petit-Grostabussiat, 2000]). Brièvement, ces essais portent sur des disques de 160mm de diamètre en acier 16MND5 couramment utilisé dans la fabrication des cuves de réacteurs nucléaires. Les disques reposent sur trois tiges en alumine situées à 72mm du centre du disque et positionnées à 120 ̊C les unes des autres. Ces disques sont chauffés par un spot laser et refroidis ensuite à l'air ambiant par convection naturelle et rayonnement. Les deux essais retenus dans notre étude se différencient par l'épaisseur des disques. Ce choix est dicté par le fait que la zone totalement austénitisée au chauffage sera entièrement transversante dans l'épaisseur. Dans le cas où cette zone est transversante, les contraintes sont quasiment inexitantes dans la direction axiale, ce qui entraîne un état de contrainte biaxial. En revanche, si cette zone est non transversante, l'état de contraintes est plus complexe, il s'agit d'un état multiaxial. Pour répondre à ces deux objectifs, les épaisseurs choisies sont respectivement 5mm pour le cas transversant et 10mm pour le cas non transversant. La puissance thermique du laser est choisie ensuite en fonction de l'épaisseur du disque. En ce qui concerne le matériau, l'acier 16MND5 est un acier faiblement allié à faible taux de carbone. Comme tous les aciers faiblement alliés, il est très sensible aux cycles thermiques du soudage ou du traitement thermique : il possède une structure austénitique à haute température et, au refroidissement, il peut présenter une structure ferritique, bainitique ou martensitique fonction de la vitesse de refroidissement. La figure FIG.3.1 schématise l'essai réalisé, e désigne l'épaisseur du disque. Fig. 3.1 : Disque chauffé par laser Fig. 3.2 : Schéma de calcul
Les conditions expérimentales sont symétriques, cela nous permet de considérer le problème comme axisymétrique et le schéma adopté pour le calcul est représenté par la figure FIG.3.2. Les supports du disque sur trois tiges sont considérés comme des appuis simples. La figure FIG.3.3 représente les maillages utilisés pour les calculs. Dans la suite de ce manuscrit, le disque de l'essai dans lequel la zone totalement austénitisée au chauffage n'est pas transversante sera nommé "disque A" et le disque utilisé pour l'essai où la zone totalement austénitisée au chauffage est transversante sera nommé "disque B". Le maillage du disque A (10mm d'épaisseur) comporte 296 éléments à quatres noeuds (éléments quadratiques) alors que celui du disque B (5mm d'épaisseur) comporte 258 éléments. Les chargements thermiques imposés sont présentés sur la figure FIG.3.4. Le flux de la chaleur de chauffage est maintenu 55s pour le disque A et 69.5s pour le disque B. La durée de chaque essai est de 300s, le chauffage se termine à l'instant t = 55s pour le disque A et à l'instant t = 85.5s pour le disque B. Les calculs thermiques et métallurgiques se sont d'abord effectués en même temps. Les résultats obtenus en température et en proportion volumique de phases dans cette étape seront utilisés pour le calcul mécanique. Il est à noter que l'état métallurgique initial est un mélange de 61% de ferrite et 39% 98
3.2 Description de l'essai Chapitre 3 : Simulations numériques
Fig. 3.3 : Maillages utilisés dans les simulations Fig. 3.4 : La source imposée : (a) Disque A, (b) Disque B de bainite pour le disque A alors que le
sque B possède une structure initiale totalement bainitique. Au cours de l'essai, les températures en faces inférieures sont mesurées par des thermocouples, les mesures de déplacements axiaux et radiaux sont effectuées à l'aide de capteurs latéraux et de capteurs inductifs. Enfin, la méthode de diffraction par rayon X a été utilisée pour mesurer les contraintes résiduelles des disques ([Cavallo, 1998], [Petit-Grostabussiat, 2000]). 3.3 Les modèles présentés ci-dessus ont été implantés dans COMSOL Multiphysics. Ce dernier offre la possibilité de programmer directement des équations aux dérivées partielles (EDPs) qui peuvent ensuite être résolues en utilisant des solveurs génériques intégrés au logiciel. Dans COMSOL Multiphysics, généralement, les équations aux dérivées partielles (EDPs) peuvent être déclarées directement sous les trois formes suivantes ([com, n.d.b], [com, n.d.a]) : • la Forme Coefficient est souvent considérée pour les EDPs linéaires, • la Forme Générale est souvent considérée pour les EDPs non-linéaires, • la Forme Faible utilise la formulation faible des EDPs, cela nous donne une grande flexibilité pour la description des équations aux dérivées partielles dans ce code. Les détails des équations de Forme Coefficient et de Forme Faible sont présentés dans ([com, n.d.b], [com, n.d.a]). Dans ce paragraphe, nous présentons la Forme Générale qui correspond aux équations de nos modèles. La Forme Générale des équations aux dérivées partielles est décrite dans COMSOL Multiphysics sous la forme suivante avec l'option d'analyse temporelle : 3.3
∂2u ∂u + ∇.Γ = F + da 2 ∂t ∂t ∂R T − nΓ = G + μ ∂u 0=R ea sur Ω (3.1) sur ∂Ω (3.2) sur ∂Ω (3.3) où : Ω est le domaine dans lequel les EDPs seront résolues, ∂Ω est la frontière du domaine considéré Ω, u est le v
ecteur
des variables dépendantes qui est également la solution du problème, n est
le
v
ecteur
unitaire normal extérieur à la ∂Ω,
μ
est le
teur de Lagrange, ea, da, Γ, F, G, R sont des coefficients de l'équation, ils peuvent être éventuellement fonctions des coordonnées spatiales, des solutions u et les dérivées de u. L'équation (3.1) représente les équations aux dérivées partielles utilisées dans COMSOL Multiphysics (Forme Générale) et les deux dernières équations ((3.2) et (3.3)) expriment respectivement les conditions aux limites de Neumann (conditions aux limites naturelles) et Dirichlet (conditions aux limites essentielles). L'utilisation appropriée des coefficients des équations ci-dessus ((3.1), ((3.2) et(3.3)) nous permet d'obtenir la forme suivante :
∂u =F ∂t −nΓ = 0 sur Ω (3.4) sur ∂Ω (3.5)
L'équation (3.4) a été utilisée pour décrire des équations d'évolution des variables dissipatives dans nos modèles de comportement. Dans ce cas, le vecteur u des variables dépendantes représente le vecteur des variables dissipatives (déformations plastiques ou la proportion volumique des phases, par exemple). Lorsque la description des équations d'évolution est terminée, COMSOL Multiphysics collecte toutes les équations ainsi que les conditions aux limites déclarées par l'utilisateur dans un système d'équations. Ces équations sont ensuite discrétisées et on obtient un système d'équations algébriques (DAE system - Differential Algebraic Equations system). Dans COMSOL Multiphysics, la résolution du système d'équations algébriques est réalisée par la méthode BDF (Backward Differentiation Formula). Le schéma implicite en temps est utilisé, ce qui conduit éventuellement à résoudre un système non-linéaire d'équations à chaque pas de temps. Dans ce cas, la méthode itérative de Newton-Raphson est utilisée, le logiciel résoud ensuite le système résultant avec un solveur du système linéaire. Dans COMSOL Multiphysic, pour la résolution du système linéaire, en fonction du problème traité, on peut choisir un solveur approprié qui peut être solveur direct (UMFPACK, SPOOLES, TAUCS), solveur GMRES, Gradients Conjugués ou Géometrique Multigrille [com, n.d.b]. Les tolérances relatives et absolues définies par l'utilisateur permettent de déterminer le critère de convergence pour chaque pas de temps. La figure FIG.3.5
présent
e les équations à résoudre
dans
COMSOL Multi
physics.
Les équations aux dérivées partielles de type (
3.4
) ont été ajout
ées
pour décrire l'évolution des proportions volumiques des phases, des variables des déformations iné
lastique
s ainsi que des variables d'
écro
u
issage
des
phase
s
métallur
g
iques.
3.3 Implantation numérique Chapitre 3 : Simulations numériques
Fig. 3.5 : Equations à résoudre avec COMSOL Myltiphysics
3.4 Propriétés thermomécaniques et métallurgiques du matériau 3.4.1 La résolution du probl
ème thermique nécessite la connaissance des caractéristiques thermiques telles que la chaleur calorifique, la conductivité thermique et les coefficients d'échanges thermiques avec l'extérieur. De plus, comme nous l'avons évoqué dans le paragraphe 1.4.1 du premier chapitre, la précision dans l'estimation de la quantité d'énergie transmise par la source de chaleur joue un rôle primordial pour la performance de la modélisation thermique des procédés de soudage ou de traitement thermique. Le tableau 3.1 présente la chaleur calorifique et la conductivité thermique en fonction de la température pour l'acier 16MND5. T ( ̊C) 20 200 ρc (106 J/m3 K)
3.49 4.09 k (W/mK) 37.7 40.5 300 400 600 750 900 1000 4.42 4.8 6.1 10.13 5.88 4.76 39.5 37.7 33 29.3 25.3 26.9
Tab. 3.1 : Caractéristiques thermiques [Coret et Combescure, 2002] 3.4 Propriétés thermomécaniques et métallurgiques du matériau 101
Chapitre 3 : Simulations numériques Les coefficients décrivant les échanges thermiques par convection naturelle et rayonnement (cf. 3.4.2 Caractéristiques métallurgiques
L'identification du modèle métallurgique nécessite la connaissance de la partie purement thermique de l'énergie libre de chaque phase. En effet, cette quantité d'énergie est liée aux chaleurs calorifiques des phases correspondantes (cf. équation 2.28). Les tableaux 3.2 et 3.3 donnent respectivement les valeurs de la chaleur calorifique en fonction de la température des phases ferritiques et de la phase austénitique [Costantini, 1996].
T ( ̊C) 20 100 200 300 400 500 600 650 700 c (J.kg −1.K −1 ) 470 490 525 565 615 680 770 815 850 Tab. 3.2 : Chaleurs spécifiques des phases ferritiques T ( ̊C) 200 300 400 500 600 700 800 900 1000 1200 c (J.kg −1.K −1 ) 530 545 560 570 580 590 600 620 630 650 Tab. 3.3 : Chaleurs spécifiques de l'austénite
La figure FIG.3.6 représente le diagramme T.R.C (Transformation en Refroidissement Continu) de l'acier 16MND5. Ce diagramme est utilisé pour déterminer les proportions finales des phases produites lors des transformations de l'austénite au refroidissement en fonction de la vitesse de refroidissement. Le tableau 3.4 donne les proportions maximales obtenues pour les phases ferritiques lors des transformations de phases au refroidissement. Ces valeurs sont déduites directement à partir du diagramme T.R.C (cf. FIG.3.6). zf, zb et zm désignent respectivement la proportion finale atteinte de la ferrite, bainite et martensite après refroidissement et V r désigne la vitesse de refroidissement. Concernant les températures de début et de fin de transformations, ces valeurs peuvent être obtenues directement à partir du diagramme T.R.C ou on peut les déterminer à partir des 102
3.4 Propriétés thermomécaniques et métallurgiques du matériau Chapitre 3 : Simulations numériques
Fig. 3.6 : Diagramme T.R.C de l'acier 16MND5 V r( ̊C/s) 0.05 zf 50 zb 50
zm 0 0.1 45 55 0 0.3 16 84 0 0.4 6 94 0 0.5 0 100 0 1 0 96 4 2 0 91 9 3 0 87 13 4 0 69 31 5 0 55 45 7 0 46 54 10 0 34 66 15 0 22 78 25 0 5 95 35 0 0 100 40 0 0 100
Tab. 3.4 : Données correspondantes au diagramme T.R.C (Figure 3.6)
Chapitre 3 : Simulations numériques essais dilatométriques. 3.4.3 Comme nous l'avons justifié dans les deux premiers chapitres de ce mémoire, les influences de l'état mécanique sur l'évolution thermique et sur la cinétique de transformations microstructurales n'ont pas été prises en compte, par conséquent, la résolution du problème mécanique est découplée des problèmes thermiques et métallurgiques. Dans nos calculs, ces deux problèmes sont résolus en même temps et les résultats de ce calcul sont les données d'entrée pour le calcul mécanique ultérieur. Concernant les coefficients de dilatation thermique des phases, ils sont déduits à partir des courbes dilatométriques libres. Conformément aux résultats expérimentaux ([Taleb et al., 2001], [Coret et al., 2002], [Alberg et Berglund, 2003], [Coret et al., 2004], [Vincent et al., 2005]), les coefficients de dilatation thermique des phases ferritiques (ferrite, bainite et martensite) sont choisis identiques et nous retenons les valeurs suivantes pour nos calculs ([Taleb et al., 2001], [Coret et al., 2002]), (cf. équations (1.61) et (1.62)) : • phases ferritiques : αα = 15 x 10−6 ̊C −1, • phase austénitique : αγ = 23.5 x 10−6 ̊C −1, • différence de compacités volumiques entre les phases ferritiques et austénique à la température Tref = 20 ̊C : Δεαγ (Tref ) = 1.06 x 10−2. Pour la plasticité de transformation, un seul coefficient K doit être déterminé (cf. équation 2.92). Les essais dilatométriques sous contraintes permettent de l'identifier. Les différents niveaux de contraintes appliquées conduisent à des valeurs différentes de K ([Taleb et al., 2001], [Taleb et Petit, 2006]). Parmi ces valeurs de K, nous reten ons pour nos calculs une valeur moyenne K = 0.7 x 10−4 M P a−1, cette même valeur est prise pour les transformations bainitiques et martensitiques. Finalement, les calculs mécaniques seront réalisés en introduisant des caractéristiques élastiques (module de Young E et coefficient de Poisson ν) ainsi que les caractéristiques plastiques ou viscoplastiques de chaque phase métallurgique. Nous rappelons ici, pour les caractéristiques plastiques ou viscoplastiques de chaque phase, qu'il s'agit des limites d'élasticité, des modules d'écrouissage et des coefficients de viscosité pour les comportements viscoplastiques (cf. le paragraphe 2.3.6).
3.4 Propriétés thermomécaniques et métallurgiques du matériau Chapitre 3 : Simulations numériques
Le tableau 3.5 présente les modules de Young E et les caractéristiques plastiques de chaque phase en fonction de la température. σym, σyb, σyf, σya et Hm sont respectivement les limites d'élasticité de la martensite, de la bainite, de la ferrite, de l'austénite et le module d'écrouissage de la martensite. T( ̊C) 20 E(Gpa) 208 σym (MPa) 1200 σyb (MPa) 480 σyf (MPa)
320
σya (MPa)
140 Hm (MPa) 10000 100 200 400 600 700 800 900 1000 204 1170 450 300 130 10000 200 1100 430 275 120 10000 180 980 390 230 110 10000 135 680 270 170 100 9000 80 350 140 100 70 8000 50 100 70 60 60 7000 32 50 30 30 30 6000 30 20 20 20 20 5000
Tab. 3.5 : Module de Young et
caractéristiques plastiques
de cha
que
phase en fonction de
la température
, [Martinez, 1999
]
Les tableaux 3.6, 3.7 et 3.8 représentent successivement les caractéristiques du comportement viscoplastique de la bainite, de la martensite et de l'austénite en fonction de la température. T( ̊C) E (MPa)
ν 20 300 550 650 204000 185000 160000 105000 σyb Q (MPa) (MPa) 254 254 15 2.1 65 65 4 0 b H (MPa) 0.38 0.38 2 2 529830 529830 236325 61630 γ κ (MPa) 949 949 952 958 η (MPa s1/n ) 30 30 1140 1112 10 10 6.72 5.68 Tab. 3.6 : Caractéristiques viscoplastiques de la bainite et de la ferrite, [Martinez, 1999] T( ̊C) E (MPa) ν σym (MPa) 20 400 204000 176000 0.3 0.3 550 500 Q (MPa) 110 110 b H (MPa) γ (MPa) κ 0.38 0.38 947445 877200 946 946 30 30 η (MPa s1/n ) 10 10
Tab. 3.7 : Caractéristiques viscoplastiques de la martensite, [Martinez, 1999]
Dans les paragraphes suivants, nous présentons les résultats des calculs avec les modèles proposés et les paramètres présentés ci-dessus. Nos résultats numériques seront analysés et comparés aux résultats expérimentaux ainsi qu'aux résultats d'un calcul numérique issu de la littérature ([Cavallo, 1998], [Petit-Grostabussiat, 2000]). 3.5 Résultats des calculs numériques - Disque A
Nous présentons dans ce paragraphe des résultats du calcul numérique relatif au disque A. Les résultats thermiques, métallurgiques et mécaniques sont respectivement exposés. Les courbes expérimentales ainsi que les résultats numériques issus de la litérature utilisés dans cette section peuvent être consultés dans [Petit-Grostabussiat, 2000]. 3.5.1 Les figures FIG.3.7 et FIG.3.8 présentent les évolutions de la température calculées et mesurées expérimentalement en fonction du temps à différents rayons du centre de la face inférieure du disque au chauffage (FIG.3.7) et au refroidissement (FIG.3.8). Les comparaisons entres les courbes calculées et expérimentales montrent une très bonne corrélation entre les résultats du calcul et ceux de l'expérience. Sur la figure FIG.3.8, on constate un léger écart entre les deux courbes calculées et mesurées au point situé à 2mm du centre de la face inférieure. En ce point, le calcul prévoit une vitesse de refroidissement légèrement plus rapide que l'essai. D'autre part, au centre de la face inférieure, le calcul donne une température maximale atteinte au chauffage de l'ordre de 774 ̊C. Cette température dépasse la température de début d'austénitisation (Td = 700 ̊C) et est inférieure à la température de fin d'austénitisation (Tf = 840 ̊C). Par conséquent, une austénitisation partielle a eu lieu en face inférieure. Les températures calculées en fonction du rayon de la face supérieure et de la face inférieure sont exprimées dans la figure FIG.3.9 pour le chauffage et dans la figure FIG.3.10 pour le refroidissement. Ces résultats montrent que le gradient thermique dans l'épaisseur croît au cours du chauffage. En effet, à l'instant t = 10s, notre calcul donne un gradient thermique d'environ 106
3.5 Résultats des calculs numériques - Disque A Chapitre 3 : Simulations numériques r=2mm−calcul r=2mm−expérience r=10mm−calcul r
=10mm−expérience r=20mm−
calcul
r=20mm−expérience r=40mm−calcul r=40mm−
expérience
800
r
=2mm−
calcul
r=2mm−expérience r=10mm−
calcul
r=10mm−expérience r=20mm−calcul r=20mm− r=40mm−calcul r=40mm−expérience 700 800 300 200 100 0 0 10 20 30 40 50 60 100 60 80 100 temps (s) 120 140 160 180 200 temps (s)
Fig. 3.7 : Evolutions de la température Fig. 3.8 : Evolutions de la température en en face inférieure pour différents rayons au face inférieure pour différents rayons au rechauffage froidissement 200 ̊C au centre du disque. A t
= 50s
, le
gradient
thermique au centre est supérieur à 300 ̊C. Il est à noter que le chargement thermique se termine à l'instant t = 55s. Au refroidissement (cf. FIG.3.10), la température a tendance à s'homogénéiser dans l'épaisseur du disque. En effet, après l'instant t = 70s, on observe que le gradient de la température dans l'épaisseur est quasiment nul pour tous les rayons et seul un
gradient
therm
ique
radial est présent dans le
disque
. vitesse de variation de la température (°C) 40 30 calcul expérience 50 100 150 200 temps (s)
Fig. 3.12 : Vitesse de la température à r=2mm en face inférieure 108
3.5 Résultats des calculs numériques - Disque A Chapitre 3 : Simulations numériques 3.5.2 Résultats métallurgiques
Nous présentons dans ce paragraphe les résultats du calcul métallurgique : cinétiques de transformations de phase et distributions des phases dans le disque. Nous rappelons que l'état métallurgique initial du disque est un mélange de 61% de ferrite et 39% de bainite, le refroidissement débute à t = 55s. Fig. 3.13 : Distributions calculées de proportions volumiques des phases métallur
giques en fin de chauffage et de refroidissement
La figure FIG.3.13 présente les distributions des phases métallurgiques en fin de chauffage (t = 55s) et en fin du calcul. On constate visiblement qu'à partir de l'état métallurgique de départ (mélange de ferrite et de bainite), après le chauffage, on obtient une zone affectée thermiquement (Z.A.T) qui se compose de deux parties : • une partie est totalement austénitisée. Cette zone se trouve au centre de la face supérieure.
des calcul mérique Chapitre 3 : Simulations numériques
Dans cette zone, la température maximale atteinte au chauffage en chaque point est supérieure à la température de fin d'austénitisation. Les phases ferritiques sont totalement transformées en austénite, on obtient donc une proportion volumique de 100% d'austénite en fin de chauffage. • une partie est partiellement austénitisée. Cette zone se situe au centre de la face inférieure. La température maximale atteinte au chauffage est supérieure à la température de début d'austénitisation mais inférieure à la température de fin d'austénitisation. Les phases métallurgiques initiales sont partiellement transformées en austénite et en fin de chauffage, on obtient un mélange des trois phases ferritiques, bainitiques et austénitiques dans cette zone. De plus, cette carte des isovaleurs métallurgiques montre bien que la zone complètement austénitisée au chauffage n'est pas transversante dans l'épaisseur du disque. Selon notre calcul, en face inférieure du disque, on obtient en fin de chauffage une proportion volumique de 76% en austénite (valeur prise au centre de la face inférieure). Ce résultat est satisfaisant par rapport aux mesures expérimentales qui donnent une valeur 70% à 80% pour l'austénite formée [Petit-Grostabussiat, 2000]. Considérons maintenant les isovaleurs métallurgiques à l'instant t = 300s. On trouve qu'une transformation totale de l'austénite formée au chauffage en bainite et en martensite a eu lieu au refroidissement. En fin de refroidissement, on obtient alors un mélange de trois phases dans la Z.A.T : la ferrite non-transformée au chauffage, la bainite et la martensite. 0.8 1 proportion de phase proportion de phase 0.7 0.6 ferrite bainite austénite martensite 0.8 0.6 ferrite bainite austénite martensite 0.4 0.2 0.1 0 0 50 100 150 temps (s) 200 250 300 0 0 50 100 150 200 250 300 temps (s)
Fig. 3.14 : Evolutions des proportions de Fig. 3.15 : Evolutions des proportions de phases au centre de la face inférieure phases au centre de la face supérieure
Les figures FIG.3.14 et FIG.3.15 présentent respectivement les évolutions temporelles des phases métallurgiques au centre de la face inférieure et de la face supérieure. Sur la figure FIG.3.14, on constate visiblement une proportion volumique de 76% de l'austénite formée au chauffage, et un mélange de 15% de ferrite, de 30% de bainite et de 55% de martensite formé en fin de refroidissement au centre de la face inférieure. Notre calcul prévoit un mélange de 28% de bainite et de 72% de martensite au centre de la face supérieure après le refroidissement (cf. FIG.3.15). La figure FIG.3.16 présente une image de la Z.A.T obtenue par notre calcul et une coupe macrographique expérimentale issue de littérature [Petit-Grostabussiat, 2000]. Cette figure montre que la forme de la Z.A.T a été bien décrite par notre calcul avec des dimensions de la zone totalement austénitisée en bonne concordance avec l'expérience.
3.5 Résultats des calculs numériques - Disque A Chapitre 3 : Simulations numériques
Fig. 3.16 : Comparaison entre les isovaleurs calculées de la proportion austénitique formée en fin de chauffage (à gauche) et une macrographie issue de l'expérience 3.5.3
Le calcul thermo-métallurgique a fourni l'évolution de la température et de la proportion de phases métallurgiques au cours de l'essai. Ces résultats sont pris comme données d'entrée du calcul mécanique. Les résultats de ce dernier seront décrits en dé et en contrainte résiduelle comme suit : • Premièrement, nous présentons les résultats du modèle dans lequel le comportement mécanique de chaque phase dans le mélange est de type élastoplastique avec écrouissage cinématique linéaire. Dans le premier cas, nous n'avons pas pris en compte la plasticité de transformation, l'effet de cette dernière sera pris en compte dans le second cas. • Deuxièmement, nous donnons les résultats du cas où le comportement mécanique de chaque phase est de type élastoviscoplastique avec écrouissage cinématique et isotrope. L'influence de la plasticité de transformation est également prise en compte. • Enfin, nous présentons les résultats obtenus par le modèle combiné dans lequel le comportement des phases ferritiques est de type élastoplastique et le comportement de l'austénite est élastoviscoplastique. La plasticité de transformation est également prise en compte. Pour chacun de ces trois cas, les résultats des calculs avec et sans plasticité de transformation sont comparés avec les résultats expérimentaux et les résultats d'un calcul numérique issu de la littérature [Petit-Grostabussiat, 2000]. Ces comparaisons nous permettent d'analyser l'influence de la plasticité de transformation ainsi que de la viscosité sur la distribution finale des contraintes résiduelles dans la structure. D'autre part, la performance et la souplesse de notre approche sont aussi mises en évidence à travers les résultats présentés, notamment avec le modèle combiné.
3.5.3.1 Cas de l'élastoplasticité
Nous présentons dans ce paragraphe les résultats du calcul avec un modèle dans lequel le comportement mécanique de chaque phase est de type élastoplastique avec écrouissage cinématique linéaire. La plasticité de transformation (TRIP) est prise en compte. Les évolutions du déplacement axial au point situé à 1mm du centre de la face inférieure du disque sont représentées par la figure FIG.3.17. Au début du chauffage, la zone centrale de la face supérieure se dilate, cette dilatation est bloquée par la partie périphérique et cela provoque une élévation de la face supérieure. Par conséquent, on constate une élévation de la face inférieure qui suit la déformation globale de la
3.5 Résultats des calculs numériques - Disque A 111 Chapitre 3 : Simulations numériques
0.2 0.1 0 −0.1 −0.2 −0.3 expérience littérature modèle sans TRiP modèle avec TRiP −0.4 −0.5 −0.6 −0.7 0 50 100 150 200 250 temps (s)
Fig. 3.17 : Déplacement axial à 1mm de la face inférieure 0.14
0.02 0.12 0 0.1 expérience litt
rature modèle sans TRiP modèle avec TRiP 0.08 0.06 face supérieure. Ensuite, le disque s'affaisse, cela est lié au chauffage de la face inférieure par conduction. Au cours du mouvement de descente, l'austénitisation a lieu premièrement en face supérieure, puis en face inférieure (à l'instant t46s en un point situé à 1mm du centre de la face inférieure). Le début de l'austénitisation s'exprime par un inversement du déplacement et le disque remonte légèrement. Cela peut s'expliquer par le fait que l'austénitisation s'accompagne d'une contraction volumique. −0.02 −0.04 −0.06 expérience littérature modèle sans TRiP modèle avec TRiP −0.08 −0.1 −0.12 −0.14 20 40 rayon (mm) 60 80 −0.16 0 20 40 60 80 rayon (mm)
Fig. 3.18 : Déplacement résiduel de la face su- Fig. 3.19 : Déplacement résiduel de la face inpérieure férieure
Les figures FIG.3.18 et FIG.3.19 représentent respectivement les déplacements résiduels en fonction du rayon du disque de la face supérieure et de la face inférieure. Les déplacements 112
3.5 Résultats des calculs numériques - Disque A Chapitre 3 : Simulations numérique
s résiduels en face supérieure ont sensiblement la même allure que ceux observés expérimentelement et celui obtenu par le calcul numérique issu de la littérature mais les amplitudes sont différentes. Pour la face inférieure, nos résultats du calcul numérique sont plus proches de la courbe expérimentale. D'autre part, on constate que le calcul où la plasticité de transformation n'est pas prise en compte donne les résultats plus proches de l'expérience que le calcul avec la plasticité de transformation. Cette constatation a été également faite par [Petit-Grostabussiat, 2000]. La déformée résiduelle du disque obtenue par notre calcul avec la prise en compte de la plasticité de transformation est présentée par la figure FIG.3.20. On observe un gonflement du disque au centre et une contraction entre la zone totalement et partiellement austénitisée. Ce résultat est tout à fait semblable à celui de [Petit-Grostabussiat, 2000]. Fig. 3.20 : Déformée résiduelle du disque - calcul avec prise en compte de l'effet TRiP
Les figures (FIG.3.21 à FIG.3.24) représentent les contraintes résiduelles radiales et circonférentielles en face supérieure et inférieure du disque, les résultats du calcul avec et sans TRiP sont comparés avec les mesures expérimentales et ceux d'un calcul numérique donné par [PetitGrostabussiat, 2000]. Le terme TRiP (TRansformation induced Plasticity) désigne la plasticité de transformation et sera fréquemment utilisé dans la suite.
400 700 200 300 100 0 −100 −200 expérience littérature modèle sans TRiP modèle avec TRiP −300 −400 −500 −600 600 expérience littérature modèle sans TRiP modèle avec TRiP −700 −800 0 10 20 30 40 50 60 70 80 rayon (mm) 0 0 10 20 30 40 50 60 70 80 rayon (mm)
Fig. 3.21 : Contraintes résiduelles radiales en Fig. 3.22 : Contraintes résiduelles radiales face supérieure en face inférieure
Pour les contraintes résiduelles radiales en faces supérieure et inférieure (cf. FIG.3.21 et FIG.3.22), les courbes estimées par nos calculs avec et sans TRiP sont très satisfaisantes par rapport à celles obtenues expérimentalement, pour ce qui est des allures, des maxima et des signes des contraintes. On constate que des valeurs maximales des contraintes radiales se trouvent expérimentalement à côté de la Z.A.T et cela est bien restitué par nos calculs. Toutefois, il y a un décalage de 6mm environ sur la position des maxima. Les contraintes radiales maximales
Chapitre 3 : Simulations numériques obtenues par l'expérience
sont successivement de 300M P a et 370M P a pour les faces supérieure et inférieure, nos calculs avec TRiP donnent respectivement les valeurs de M pa et 308M P a pour les deux faces. De plus, on trouve qu'en dehors de la Z.A.T, les courbes calculées suivent bien celles obtenues par l'expérience.
700 600 500 400 expérience littérature modèle sans TRiP modèle avec TRiP 300 200 100 0 −100 −200 −300 0 10 20 30 40 50 60 70 rayon (mm) 80 600 expérience littérature modèle sans TRiP modèle avec TRiP 500 400 300 200 100 0 −100 −200 −300 −400 0 10 20 30 40 50 60 70 80 rayon (mm)
Fig. 3.23 : Contraintes résiduelles circonféren- Fig. 3.24 : Contraintes résiduelles circonfétielles en face supérieure rentielles en face inférieure En terme de contraintes résiduelles circonférentielles (cf.
| 3,816
|
34/hal.archives-ouvertes.fr-cel-01575654-document.txt_1
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 9,348
| 16,414
|
Equations aux dérivées partielles (EDP), Méthode de résolution des EDP par séparation de variables ; Applications Thierry Lubin – M1/M2 Spécialité Energie Electrique Equations aux dérivées partielles (EDP) Méthode de résolution des EDP par séparation de variables ; Applications
Thi
erry LUBIN Année 2015-2016
Table des
matières
I. Introduction 1. Equations différentielles ordinaires (EDO) ; Exemples a) Etablissement du courant électrique dans une bobine b) Oscillateur en mécanique du point 2. Equations aux dérivées partielles (EDP) ; Exemples a) Champ magnétique dans l'entrefer d'une machine à aimants b) Diffusion de la température dans une barre métallique II. Méthode de séparation des variables 1. Equation de Laplace dans un carré (2D cartésien) 2. Equation de Laplace dans un disque (2D cylindrique) 3. Equation de Laplace dans un anneau (2D cylindrique), entrefer 4. Equation de la chaleur en 1D 5. Equation des ondes en 1D 6. Aimant permanent dans une boite ferromagnétique (problème à 2 régions) 7. bobine à noyau de fer (problème à 5 régions) III. Exercices d'application + projet sur
la
machine à aimants IV
. Bibliographie ANNEXES
A.1 Formulaire : Equations Différentielles Ordinaires du 2ème ordre 1. Equations différentielles homogènes à coefficients constants 2. Equation d'Euler 3. Equation de Bessel 4. Equation de Bessel modifiée A.2 Problème de Sturm-Liouville (problème aux
leurs propres) I. Introduction 1. Equations différentielles ordinaires (EDO)
Les équations différentielles ordinaires se rencontrent dans tous les domaines de la physique (électricité, mécanique, thermique). C'est une relation entre une fonction inconnue et ses dérivées. La fonction inconnue ne dépend que d'une seule variable, par exemple f(x). Nous allons présenter 2 exemples. a) Etablissement du courant électrique dans une bobine : On considère une bobine d'inductance L = 12 mH et de résistance R = 0,6 Ω. A l'instant initial, le courant dans la bobine est nul et on applique un échelon de tension U = 3 V. R = 0,6Ω i(t) L=12mH u(t)
Figure 1 : Etablissement du courant électrique dans une bobine
L'évolution du courant électrique est donnée par une équation différentielle du 1er ordre (voir cours d'électricité de Licence) : L di(t ) Ri (t )
u
(
t
) avec
i(t 0) 0 dt
La résolution de cette équation différentielle donne : U i (t ) 1 e R t
avec L R La figure 2 représente l'évolution temporelle du courant
.
6
5 courant (A) 4 3 2 1 0 0 0.02 0.04 0.06 0.08 0.1 0.12 0.14 0.16 temps (s)
Figure 2 : Evolution temporelle du courant dans une bobine. b)
Oscilla
teur en mécanique
du point : On considère sur la figure 3 un corps solide de masse m = 100g et de centre d'inertie B. Le corps est relié au point A par un ressort à spires de raideur k =125 N.m-1 Le ressort est mis en parallèle sur un amortisseur de frottement visqueux f = 1 kg.s-1 (force proportionnelle à la vitesse et qui s'oppose au mouvement). On suppose que le corps peut se déplacer suivant x sans frottement sur la surface de contact.
A Corps solide Ressort B Amortisseur 0 x0 x
Figure 3 : Oscillateur en mécanique du point
On écarte le corps de sa position d'équilibre (x = 0) vers la droite (x = x0 = 10 cm) et on lâche sans vitesse initiale. Il s'agit de déterminer l'évolution de la position du corps en fonction du temps. La projection de la relation fondamentale de la dynamique sur l'axe des x nous amène à l'équation différentielle du 2ème ordre suivante (voir cours de mécanique de Licence): d 2 x f dx k x0 dt 2 m dt m x(t 0) x0 avec dx 0 dt t 0 et La résolution de l'équation différentielle du second ordre (régime pseudopériodique) donne :
x(
t
)
x0e t cos(t ) sin(t ) avec 2 f m et k 2 m
L'évolution temporelle de la position du corps solide est représentée sur la figure suivante.
0.1 0.08 0.06 position (m) 0.04 0.02 0 -0.02 -0.04 -0.06 -0.08 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 temps (s)
4 : Evolution temporelle de la position du solide 2. Equations aux dérivées partielles (EDP
) D'une manière générale, la modélisation des phénomènes physiques repose sur la résolution d'équations aux dérivées partielles. Ces équations correspondent à la traduction mathématique des lois de la physique : - mécanique des fluides : équations de Navier-Stockes électromagnétisme : équations de Maxwell thermique : équation de la chaleur mécanique quantique : équation de Schrödinger Dans les sciences de l'ingénieur, la modélisation d'un dispositif physique (moteur électrique par exemple) permet de prévoir son comportement et d'étudier l'influence des paramètres sur ses performances. La validité du modèle doit-être comparée, lorsque cela est possible, aux mesures expérimentales. Equation de Poisson en 2D (cylindrique) Equation des ondes en 3D a)
Exemple 1 : Champ magnétique dans une machine à aimants
La figure 5 représente les lignes de champ magnétique dans une machine électrique à aimants permanents. La machine comporte 6 encoches au stator pour loger un enroulement triphasé et 4 aimants permanents au rotor permettant d'obtenir une machine à 4 pôles magnétiques. La connaissance du champ magnétique dans l'entrefer de la machine (qui permettra de calculer le couple électromagnétique) passe par la résolution d'un ensemble d'équations aux dérivées partielles. Les équations de la physique à résoudre pour ce dispositif sont les équations de Maxwell. Il s'agit d'une modélisation en deux dimensions (2D) dans un système de coordonnées cylindriques. Le champ magnétique en chaque point (r, θ) de la machine s'écrit de la façon suivante (champ de vecteurs) : B Br (r, )u r B (r, )u où Br et Bθ sont les composantes radiales et tangentielles du champ magnétique.
Figure 5 : Lignes de champ magnétique dans une machine à aimants
A partir d'hypothèses simplificatrices (en particulier la linéarité du fer) et en introduisant la notion de potentiel vecteur Az (r, ) (voir cours d'électromagnétisme), l'équation aux dérivées partielles à résoudre dans l'entrefer est une équation de Laplace : 2 Az 1 Az 1 2 Az Az 0 soit 0 r 2 r r r 2 2 D'une manière générale, pour pouvoir résoudre une équation aux dérivées partielles, il faut définir son domaine de validité Ω (ici l'entrefer en forme d'anneau) ainsi que les conditions aux frontières (F) du domaine, ici en r = R1 et r = R2. Le problème à résoudre est donc le suivant :
Az f ( ) r (Ω : Entrefer) Az 0 (E) : Az g ( ) R1 R2 2 Az r 2 1 Az 1 2 Az 2 0 r r r 2 R1 r R2 (Ω) : 0 2 Az ( R1, ) g ( ) (F) : Az f ( ) r r R 2
Figure 6 : Problème à résoudre pour calculer le champ dans l'entrefer. La résolution analytique de l'équation (E) par la méthode de séparation des variables permet d'obtenir l'expression analytique du potentiel vecteur Az (r, ). A partir de ce résultat, on calcule l'expression des composantes du champ magnétique dans l'entrefer : A 1
Az
soit
et B (r, ) z B A Br (r, ) r r
La figure 7 représente le champ magnétique radial et tangentiel au milieu de
l'entrefer de la machine. On remarque l'effet des encoches. 0,5
1.5 Finite element Analytical
0,4
Tangential flux density (T)
0.5
Finite element Analytical 0 -0.5 -1
0,3 0,2 0,1
-0
-
0,1 -0,2 -0,3 -0,4 -1.5 0
60 120 180 240
Angle
(
mech
. degrees
) 300 360 -0.5 0 60 120 180 240 Angle (mech. degrees) 300 360 Figure 7 : Induction magnétique (radiale et tangentielle) au milieu de l'entrefer 1
La connaissance de l'induction magnétique dans l'entrefer permet ensuite d'obtenir le couple électromagnétique de la machine à partir du tenseur de Maxwell (voir cours sur les machines électriques).
14 / = 1 / = 0.4 12 10 Torque (Nm) Radial flux density (T) 1 8 / = 0.2 6 4 Finite element Analytical 2 0 0 10 20 30 40 50 60 70 Angle (mech. degrees) 80 90
Figure 8 : Couple électromagnétique développé par la machine T. Lubin, S. Mezani, and A. Rezzoug, "2-D Exact analytical model for surface-mounted permanent-magnet motors with semi-closed slots," IEEE Trans. Magn., vol. 47, no. 2, pp. 479-4929, Feb. 2011. 1 b) Exemple 2 : diffusion de la température dans une barre métallique : On considère une barre en cuivre peu épaisse de diffusivité therm
ique k (k = 1 cm2/s) qui est totalement isolée de l'extérieur et pour laquelle on a fixé les températures aux deux extrémités à 0°C. La répartition initiale de la température (à t =0 s) dans la barre est donnée par la fonction suivante :
pour x T ( x) L x pour 0 x L/2 L/2 x L T(L,t)=0°C T(0,t)=0°C x x=0 x = L/2 x=L T(x) 25°C à t=0s x L= 50 cm
Figure 9 : Répartition de la température dans une barre en cuivre. Il s'agit de prévoir comment va évoluer la température dans la barre en fonction du temps. Figure 10 : Evolution de la température de la barre en fonction du temps
II. Application de la méthode de séparation des variables 1. Equation de Laplace dans un carré
On se propose d'étudier la distribution de température à l'équilibre dans une barre de section carré (on considère un problème en 2 dimensions). La température à l'équilibre thermique dans un solide vérifie, en l'absence de sources volumiques de chaleur, l'équation de Laplace (voir cours de thermique). On considère qu'un dispositif quelconque impose une température nulle en y = 0 et une température dépendant de la variable x en y = a. Les conditions aux frontières où la valeur de la fonction est fixée s'appellent des conditions de Dirichlet. On considère que le système est isolé thermiquement (cloison calorifuge) en x= 0 et en x= a, ce qui correspond à fixer une valeur nulle pour la dérivée de la température par rapport à la normal (conditions de Neumann). Le problème à résoudre est donc le suivant :
y a T f (x) (E) : T 0 x 2T 2T 0 x 2 y 2 T 0 x 0 x a (Ω) : 0 y b (F) : T 0 x a 2T 2T 0 x 2 y 2 T x 0 x 0 x a T 0 x y 0 T 0 y a T f ( x)
Figure 11 : Résolution de l'équation de Laplace dans un carré de coté a. La méthode
de résolution par séparation des variables consiste à rechercher une solution de la forme (on sépare les variables x et y) : T ( x, y) X ( x)Y ( y) En remplaçant cette expression dans l'équation de Laplace (E), nous avons : X ''Y Y '' X 0 Si maintenant nous divisons cette expression par le produit XY, nous obtenons : Y '' X '' Y X (λ est une constante quelconque) Les variables sont bien séparables car elles se trouvent de chaque coté de l'égalité. L'égalité impose que les rapports soient constants, c'est la seule possibilité pour des fonctions de variables différentes. On introduit alors la constante de séparation λ qu'il faut définir. Par conséquent, 0 0 est une valeur propre simple et X 0 ( x) B0 (où B0 est une constante arbitraire) est une fonction propre simple. ♦ 2ème cas : Δ > 0 soit λ < 0. On pose r2 2 soit 4 2 → r1 et La solution s'écrit : X ( x) Aex Be x X'(0) 0 A B 0 soit A B X'(a) 0 A ea ea 2 A.sh(a) 0 Comme 0, sh(a) 0 et par conséquent A = B = 0 0 ne sont pas des valeurs propres du problème. ♦ 3ème cas : Δ < 0 soit λ > 0. On pose 2 soit 4 2 → r1 j et r2 j La solution s'écrit : X ( x) A cos(x) B sin(x) X'(0) 0 B 0 X'(a) 0 A sin( a) 0 ; comme 0, dehors de A=0 qui est une solution triviale) : n a A sin(a) 0 avec n = 1, 2, 3, impose (en n Par conséquent, n sont les valeurs propres du problème aux limites. a Les fonctions propres associées aux valeurs propres n s'écrivent : 2 n X n ( x) An cos a
x b) Résolution de l'équation différentielle sur la variable y
Les valeurs de λ (valeurs propres) étant maintenant connues, on peut résoudre l'équation différentielle en y : Y '' nY 0 ♦ pour λ0 = 0, l'équation précédente se simplifie et la solution est évidente : Y0'' 0 → Y0 ( y) A0 y B0 où A0 et B0 sont des constantes arbitraires. n ♦ pour n ,
nous
obtenons : a 2 n Yn 0 a 2 Yn'' → Yn ( y) An e n y a B0 e n y a
où An et B
n
sont des constantes arbitraires
.
c) Solution générale
de
l'
EDP:
La solution générale de l'équation aux dérivées partielles est la superposition de l'ensemble des solutions (on doit considérer toutes les fonctions propres) : T ( x,
y )
X
0
(
x)Y0 (
y
) X
n (
x)Yn ( y ) n 1
soit
:
n n y y n a a T ( x, y ) A0 B0 y A e B e n n cos a x n 1 d)
Solution particulière : La solution générale doit vérifier les conditions aux frontières en y = 0 et en y=a: T ( x; y 0) 0 T ( x; y a) f ( x) → La première condition nous amène à la relation suivante : A0 A n n 1 n Bn cos a x 0 → A0 0
et
An Bn A partir de ces résultats, nous pouvons réécrire l'équation de la température de la façon suivante : T ( x, y ) B0 y 2 A sh n n 1 n n y cos x a a e ay e ay sachant que sh(ay ) (sinus hyperbolique). 2 → La deuxième condition nous amène à la relation suivante : f ( x) B0 a n x 2 A shn cos a n n 1 Pour simplifier l'expression, on pose B0' B0 a et An' 2 An shn . On obtient alors : n 'f ( x) B0 An' cos x a n 1 Il reste à déterminer les expressions des coefficients B0' et An'. L'expression de B0' s'obtient en intégrant l'équation précédente entre 0 et a : a a a f ( x)dx
B dx
'0 0 0 n
1 0
n A cos x dx a 'n a or n x dx 0 a A cos'n 0 Par conséquent, l'expression du coefficient B0' est la suivante :
B0' 1 a a f ( x)dx
0 L'expression du coefficient d'indice m noté Am' s'obtient en multipliant l'équation n par cos a x et en intégrant entre 0 et a : a 0 n n f ( x) cos x dx B0' cos x dx a a 0 a a A'm n 1 0 m n cos x cos x dx a a Cette équation se simplifie (propriétés d'orthogonalité): a 0 B0'
n
cos
x
dx
0
a
0
m
n 0 cos a x cos a x dx a 2 a et si nm si nm Par conséquent, on obtient pour le coefficient An' : An' 2
a
a
n
x dx a f ( x) cos 0
On retrouve les expressions des coefficients du développement en série de Fourier de la fonction f(x) sur l'intervalle [0, a] : Application : f ( x) kx q et a Après quelques calculs, nous obtenons:
B0' 1 k q 2 Bn' et 2k (1) n 1 2 n
La répartition de température dans le carré de longueur a s'écrit alors : 2 k q T (
x
,
y) y 2 k n (1) n 1 2 n shsh(nny ) cosnx 1
Les
figures
suivant
es
représentent les courbes d'iso-température en prenant k = 50/π et q=50 et la distribution de température en x=pi/2. Répartition de la température (°C) 90. 8 76. 80.86 5.62 6 38 38 7 8 1 1 97 1 66.59.35 56 27 61 86.84 57.08 16 52 45.32 75 3 2.5 47.5 7 90 80 70 04 42.81 34 2 60 y 38.05 63 50 33.29 93 1.5 40 28.5423 23.78 52 1 30 19.02 82 20 14.2711 0.5 9.51409 10 4.75704 0 0 1 2 0 3 x
Figure 12 : Carte des températures Température en fonction de y (x=pi/2) 80 70 0.5 1 1.5 y 2 2.5 3 Figure 13 : Evolution de la température en fonction de y en x=π/2
2. Equation de Laplace dans un disque
Il s'agit de calculer le potentiel vecteur magnétique A(r,θ) vérifiant l'équation de Laplace à l'intérieur d'un disque de rayon r = a. Le problème à résoudre est le suivant :
A(a, ) f ( ) (E) : A 0 a 2 A 1 A 1 2 A 0 r 2 r r r 2 2 0 r 1 (Ω): 0 2 (F) : A(r a; ) f ( ) Problème pério
dique
: A(r, 0) A(r, 2 ) A A (r, 0) (r, 2 )
Figure 14 : Résolution de l'équation de Laplace dans un disque de rayon
a La méthode de résolution par séparation des variables consiste à rechercher une solution de la forme (on sépare les variables r et θ) : A(r, ) R(r ) ( ) Si on remplace cette expression dans l'équation de Laplace, nous obtenons : 1
1 R '' R ' 2 R '' 0 r r
Si nous divisons cette expression par le produit R, nous pouvons écrire : r2 R '' R' '' r R R (λ est une constante quelconque) Les variables sont bien séparables car elles se trouvent de chaque coté de l'égalité. L'égalité impose que les rapports soient constants. On introduit alors la constante de séparation λ qu'il faut définir. On est alors amené à résoudre les problèmes suivants : ♦ 1 problème aux valeurs propres (Sturm-Liouville) sur la variable θ (problème périodique voir annexe) : '' 0 (0) (2 ) '' (0) (2 ) où il faut rechercher toutes les valeurs propres n et les fonctions propres associées n ( ). ♦ 1 équation différentielle (équation d'Euler voir annexe) sur la variable r : r 2 R '' rR' n R 0 Remarque : La condition sur la frontière du disque en r = a permettra de déterminer les constantes d'intégration apparaissant dans la solution générale. On commence par résoudre le problème aux valeurs propres. On étudie toutes les possibilités pour la constante de séparation λ : a) Résolution du problème aux valeurs propres : '' 0 équation caractéristique : r 2 0 → 4 ♦ 1er cas : Δ = 0 soit λ = 0 La solution s'écrit : ( ) A B (0) (2 ) A 0 ; l'autre condition de périodicité sur la dérivée n'apporte rien. ( ) B vérifie la condition de périodicité. Par conséquent, 0 0 est une valeur propre simple et 0 ( ) B0 (B0 est une constante arbitraire) est une fonction propre simple. ♦ 2ème cas : Δ > 0 soit λ < 0. On pose r2 2 soit 4 2 → r1 et La solution s'écrit : ( ) Ae Be (0) (2 ) 2 0 2 A 1 e '' 2 (0) (2 ) B 1 e 0 avec 0 soit A B0 Par conséquent, 0 ne sont pas des valeurs propres du problème. ♦ 3ème cas : Δ < 0 soit λ > 0. Rn (r ) An r n Bn r n c)
Solution générale de l'EDP: La solution générale de l'équation aux dérivées partielles est la superposition de l'ensemble des solutions (on doit considérer toutes les valeurs propres) : A(r,
) R
0
(r )
0
(
)
R (r )
n n (
) n 1
soit :
A(r, ) A0 B0 ln r A r n n Bn r n C n cosn Dn sin n n 1
Cette relation peut écrire de la façon suivante où An, Bn, Cn et Dn sont de nouvelles constantes d'intégration :
A(r, ) A0 B0 ln r An r n Bn r n cos n Cn r n Dn r n sin n n 1
Dans le cas d'un disque, la solution devant être finie en r = 0 (problème physique), les coefficients B0, Bn et Dn doivent être nuls. La solution générale se réduit donc à :
A(r,
)
A0
An r n cos
n Cn r
n sin n
avec n = 1, 2, 3,
n
1 d) Solution particulière : La solution générale doit vérifier la condition sur la frontière du disque en r = a : A(r a; ) f ( ) On ob tient alors la relation suivante :
f
(
)
A
0
An a n cos n Cn a n sin n n 1
Pour simplifier l'expression, on pose An' a n An et Cn' a nCn. : f ( ) A0 An' cos n C n' sin n n 1 La décomposition de f ( ) sur la base des fonctions propres nous donne pour les coefficients (série de Fourier) : 1 A0 2 2 f ( )d An' 0 2 2 2 f ( ) cos n d Cn' 0 2 2 2 f ( )sin n d 0
Applications :
♦
si f (
)
cos
p
, la solution est la suivante (figure 15.a pour p
=1
et figure 15.b pour
p
= 2)
n p ; A0 0 ; A'p 1 et C 'p 0 p r A(r, ) cos( p ) a ♦ si f (
) à l'allure suivante :
f ( ) 1 2 2 k 1 sin (2k 1) 2k 1 1
La solution est la suivante (figure 16):
A(r, ) r k 0 a 4 (a) : p= 1 (b) : p = 2
Figure 15 : Isovaleurs du potentiel vecteur dans un disque de rayon a Figure 16 : Isovaleurs du potentiel vecteur dans un disque de rayon a 3.
Equation de Laplace dans un anneau
En électrotechnique, on est amené à résoudre l'équation de Laplace dans un anneau pour connaître par exemple la distribution du champ magnétique dans l'entrefer d'une machine tournante. Le calcul du champ magnétique nous permet ensuite d'obtenir des grandeurs globales comme le couple électromagnétique ou la force électromotrice induit e aux bornes d'une phase (voir cours sur les machines électriques). Il s'agit donc de calculer le potentiel vecteur magnétique A(r,θ) vérifiant l'équation de Laplace à l'intérieur d'un anneau de rayon interne r = a et de rayon externe r = b. Le problème à résoudre est le suivant :
A (b, ) 0 K cos( p ) r A 0 A ( a, ) 0 r (E) : a r b (Ω) : 0 2 (F) : a b 2 A 1 A 1 2 A 0 r 2 r r r 2 2 A (r b; ) 0 K cos( p ) r A (r a; ) 0 r (où
p est un nombre entier
) Problème périodique : A(r, 0) A(r, 2 ) A A (r, 0) (r, 2 )
Nous donnons ici quelques remarques techniques (voir le cours sur les machines électriques) concernant les conditions aux frontières du problème à résoudre (conditions de Neumann). Nous avons représenté sur la figure suivante une machine électrique triphasée à 2 paires de pôles (p = 2) constituée d'un stator comportant 24 encoches dans lesquelles sont disposés les bobinages des enroulements statoriques (1-1' ; 2-2' ; 33'). Nous considérons un rotor cylindrique sans source (on ne s'intéresse pas aux aimants rotoriques cf. exercice en fin de chapitre). On considère que le fer (rotor et stator) présente une perméabilité infinie (Hfer = 0). Pour simplifier le problème à résoudre (ne pas tenir compte des effets d'encoches sur la distribution du champ magnétique), on montre que l'on peut représenter les enroulements statoriques placés dans les encoches par une densité linéique équivalente de courant plac ée sur l'alésage du stator (r = b) comme indiqué sur la figure suivante. Si l'on ne considère que le fondamental de la nappe de courant, on peut écrire (voir cours machines): k ( ) K cos( p ) avec K 3( Kb N ) I 2 b où N est le nombre de spires en série par phase, I est la valeur efficace du courant dans les enroulements, b le rayon de l'alésage statorique, p le nombre de paires de pôles et Kb le coefficient de bobinage. Dans le cas d'un bobinage diamétral, le coefficient de bobinage est donné par la relation suivante où q est le nombre d'encoches par pôle et par phase. b Les conditions sur les frontières du domaine d'étude (r = a et r = b) s'obtiennent à partir des lois de l'électromagnétisme (conditions de passage entre deux milieux). Comme la perméabilité du fer est supposée infinie, le champ magnétique H est nul dans le fer et par conséquent le seul domaine d'étude est l'entrefer (anneau). De plus, nous savons que la composante tangentielle du champ H subit une discontinuité à la traversée d'une nappe de courant. Les conditions aux frontières sont donc les suivantes : En r = a : nous avons H 0 (car Hfer = 0 au rotor et pas de nappe de courant) soit A en fonction du potentiel vecteur → (r a; ) 0 (car H 1 0 A dans l'air). r En r = b : nous avons H k ( ) (Hfer = 0 au stator et présence d'une nappe de A courant) soit (r b; ) 0 K cos( p ) r a) Solution générale : Il reste maintenant à trouver la solution analytique du problème et vérifier à l'aide d'un logiciel de calcul de champ par éléments finis si l'hypothèse de la nappe de courant équivalente est acceptable. La solution générale du paragraphe précédent reste valable. L'expression du potentiel vecteur dans l'anneau s'écrit :
A(r, ) A0 B0 ln r An r n Bn r n cos n Cn r n Dn r n sin n n 1
a) Solution particulière : La solution particulière doit vérifier les conditions aux frontières suivantes: A (r a; ) 0 r A (r b; ) 0 K cos( p ) r et La première condition nous donne :
B0 0 n n An a Bn a 0 n n Cn a Dn a 0 soi B0 0 2n Bn An a 2n Dn Cn a
On peut écrire à nouveau la solution en prenant en compte les égalités précédentes :
A(r
,
) A0 An r n r n a 2n cos n Cn r n r n a 2n sin n n 1
La deuxième condition s'écrit :
0 K cos( p ) An n bn1 b n1a 2n cos n Cn n b n1 b n1a 2n sin n n 1
Pour simplifier l'expression, on pose : An' An n bn1 b n1a 2n Cn' Cn n bn1 b n1a 2n et Ce qui donne : 0 K cos( p ) An' cos n Cn' sin n n 1 La décomposition de 0 K cos( p ) sur la base des fonctions propres nous donne pour les coefficients (série de Fourier) : An' 2 2 2 0 K cos( p ) cos n d Cn' 0 2 2 2 0 K cos( p )sin n d 0 Le calcul est immédiat. Le coefficient Cn' est nul et le coefficient An' est différent de zéro uniquement pour n = p et vaut A'p 0 K. L'expression du potentiel vecteur dans l'anneau est donc la suivante (après quelques petites manipulations) :
r p r p Kb a a A(r, ) A0 0 cos( p ) p b p b p a a
Du fait des conditions de Neumann imposées aux frontières, le potentiel vecteur est défini à une constante près (pas de relation sur A0). A partir de ce résultat, on calcule l'expression des composantes du champ magnétique dans l'entrefer en dérivant l'expression précédente : B A soit Br (r, ) 1 Az r
et
B (r, ) Az r
Pour tracer la distribution du champ, on considère les paramètres suivants (pas forcément représentatifs de la réalité) : Courant efficace dans chaque phase : I = 25A ; Rayon du rotor : a = 4cm ; Rayon d'alésage du stator : b = 4,6 cm ; nombre d'encoches statoriques : Q = 24 ; Nombre de spires en série par phase : N = 160 spires Les bobinages sont diamétrales, le coefficient de bobinage vaut Kb = 0,966 (q = 2). La valeur maximale de la nappe de courant équivalente (terme fondamental) est alors la suivante : K 3( Kb N ) I 2 113440 A / m b
La figure suivante montre la distribution du champ magnétique dans la machine (I 1 = I et I2 = I3
= -I/2) obtenu avec le logiciel libre FEMM (: http://www.femm.info/wiki/HomePage) : Les figures suivantes comparent la distribution des composantes radiales et tangentielles du champ magnétique au milieu de l'entrefer obtenue à partir du modèle analytique (approximation nappe de courant) et du logiciel de calcul numérique par éléments finis FEMM qui tient compte des encoches (avec un décalage de phase de pi/8 pour le modèle analytique). On observe que le modèle analytique permet de prévoir avec une très bonne précision le fondamental du champ dans l'entrefer (composante radiale et composante tangentielle). Bien évidemment, les effets des encoches sur la distribution du champ dans l'entrefer ne peuvent être prévus avec le modèle analytique développé ici. 0.6 Analytique Element finis 0.1 Champ tangentiel (T) 0.4 Champ radial (T) 0.15 Analytique Element finis -0.6 0 45 90 135 180 225 Theta (°) 270 315 360 0 45 90 135 180 225 Theta (°) 270 315
4. Equation de la chaleur en 1D
On va maintenant résoudre le problème de diffusion de la température présenté dans l'introduction. On considère une barre en cuivre peu épaisse de diffusivité thermique k (k = 1 cm2/s) qui est totalement isolée de l'extérieur et pour laquelle on a fixé les températures aux deux extrémités à 0°C. La répartition initiale de la température (à t = 0 s) dans la barre est donnée par la fonction suivante :
pour x f ( x) L x pour 0 x L/2 L/2 x L T(L,t)=0 °C x T(0,t)=0 °C x=0 x = L/2 T 2T k 2 t x (Ω) : 0 x L (E) : x=L T (0; t ) 0C (F) : T ( L; t ) 0C T(x) 25°C à t=0s x (I) : T ( x; t 0) f ( x) L= 50 cm
Figure 17 : Résolution de l'équation de la chaleur en 1D
Comme dans les exemples précédents, on recherche une solution de la forme (on sépare les variables x et t) : T ( x, t ) X ( x) (t ) 360 Si nous remplaçons cette expression dans l' équation (E), nous obtenons :'X' kX ' On divise par le produit XΨ 1 'X '' (λ est une constante quelconque) k X Encore une fois, les variables sont bien séparables car elles se trouvent de chaque coté de l'égalité. On introduit à nouveau la constante de séparation λ qu'il faut définir. On est alors amené à résoudre les problèmes suivant : ♦ 1 problème aux valeurs propres (Sturm-Liouville) sur la variable x (car les conditions aux frontières homogènes se trouvent sur cette variable) : X '' ( x) X ( x) 0 X (0) X ( L) 0 où il faut rechercher toutes valeurs propres n et les fonctions propres X n (x). ♦ 1 équation différentielle du 1er ordre sur la variable t : '(t ) n k (t ) 0 On commence par résoudre le problème aux valeurs propres. On étudie toutes les possibilités pour la constante de séparation λ : a) Résolution du problème aux valeurs propres X '' X 0 a pour équation caractéristique r 2 0 → 4 ♦ 1er cas : Δ = 0 soit λ = 0 La solution s'écrit : X ( x) Ax B X (0) 0 B 0 et X ( L) 0 A 0 Par conséquent, 0 n'est pas une valeur propre du problème. ♦ 2ème cas : Δ > 0 soit λ < 0. On pose r2 2 soit 4 2 → r1 et La solution s'écrit : X ( x)
Ae
x
Be
x X
(0)
0
A
B
0
soit
A
B
X
(
L
)
0 A eL e L 2 Ash(a) 0 comme 0, sh(a) 0 et donc A = 0 Par conséquent,
0
ne
sont pas des valeurs propres. ♦ 3ème cas : Δ < 0 soit λ > 0. On pose r2 j 2 soit 4 2 → r1 j et La solution s'écrit : X ( x) A cos(x) B sin(x) X (0) 0 A 0 X ( L) 0 B sinL 0 correspond à : Une solution non triviale de l'équation ( B 0) n L avec n = 1, 2, 3, n Par conséquent, n sont les valeurs propres du problème aux limites. → n (t ) An e n k t L c)
Solution générale de l'EDP: La solution générale de l'équation aux dérivées partielles est la superposition de l'ensemble des solutions (on doit considérer toutes les valeurs propres) : T ( x, t )
X n ( x) n (t )
n
1 soit
: T ( x, t ) 2 A e n n k t L n sin x L n 1 d)
Solution particulière : La solution générale doit vérifier la condition initiale : T ( x; t 0) f ( x) avec 0 x L/2 pour x f ( x) L x pour L/2 x L A partir de la solution générale, nous obtenons : f (
x
)
A
n
n 1
n
sin
x
L
Il reste donc à décomposer f(x) sur la base des fonctions propres en calculant le coefficient An : 2 An L L n x dx f ( x) sin
L 0 En remplaçant f(x) par son expression, nous obtenons : An
2 L L/2 0 n x sin L L 2 L x sin n x dx L L L/2 x dx
Le développement des calculs nous donne : n
sin
n
2 2
L'évolution de la temp érature dans la barre suit la loi suivante :
An T ( x, t ) (n ) n 1 4L 2 4L sin( n )e 2 2 n k t L n sin L x
On retrouve le résultat donné dans l'introduction du cours. Les courbes de température sont données sur la figure 18 (jusqu'à 500 secondes). La température tend vers 0°C pour un temps infini. 25 T(x,t) °C 20 15 10 5 0 50 40 30 400 20 200 10 x (cm) 0 0 500 300 100 t(s)
Figure 18 : Evolution de la température de la barre en fonction du temps et de la position x
5. Equation des ondes en 1D
Les vibrations d'une corde de piano ou de clavecin (corde frappée ou corde pincée) répondent à l'équation de d'Alembert ou équation des ondes en 1D. Nous allons résoudre l'équation des ondes en utilisant la méthode de séparation des variables. Le problème est le suivant. On considère une corde de longueur L maintenue à chaque extrémité. La corde est pincée et lâchée à t = 0 de telle manière que sa vitesse initiale soit nulle. L'endroit x = a où l'on pince la corde à une grande influence vis-à-vis des harmoniques présents (et par conséquent sur le son). On considère qu'à l'instant initiale, la position de la corde est la suivante (la corde est pincée au milieu sur une hauteur h et présente une forme triangulaire représentée par la fonction f(x)) :
f(x) Position à t=0s h Corde maintenue Corde maintenue x a = L/2 L
Les lois de la physique nous amène à résoudre l'équation aux dérivées partielles suivante où y(x,t) est la fonction inconnue (position de la corde en chaque point et à chaque instant) et v est la vitesse de propagation en m/s qui dépend des caractéristiques physiques de la corde. 1 2 y 2 y Equation à résoudre (E) : 2 2 2 v t x
Domaine d
'
étud
e (Ω) : 0 xL y (0; t ) 0
Conditions aux frontières
(F)
:
(
corde fix
ée
aux extr
ém
ités
) y ( L; t ) 0
Conditions initial
es (I) : y( x; t 0) f ( x) (
position initiale de la corde
) y ( x
;
t 0) 0 (
vitesse initiale
nulle) t
La fonction f
(x
) s'écrit :
2h pour L x f ( x) 2h L x pour L 0 x L/2 L/2 x L
Comme pour les exemples précédents, on recherche une solution de la forme (on sépare les variables x et t) : y( x, t ) X ( x)T (t ) Si nous remplaçons cette expression dans l'équation (E), nous obtenons : 1 XT '' X ''T 2 v On divise par le produit XT 1 T '' X '' v2 T X (λ est une constante quelconque) Encore une fois, les variables sont bien séparables car elles se trouvent de chaque coté de l'égalité. On est alors amené à résoudre les problèmes suivant : ♦ 1 problème aux valeurs propres (Sturm-Liouville) sur la variable x (car les conditions aux frontières homogènes se trouvent sur cette variable) : X '' ( x) X ( x) 0 X (0) X ( L) 0 où il faut rechercher toutes valeurs propres n et les fonctions propres X n (x).
♦
1 équation différentielle du 1er ordre sur la variable t : T '' (
t
)
nv 2T (t
)
0
a
)
Résolution du problème aux valeurs propres
Le problème aux valeurs propres est identique à celui que l'on a résolu pour l'équation de la chaleur. Les valeurs propres et les fonctions propres sont les suivantes :
n n L 2 avec n 1, 2, 3, n X n ( x) An sin L x b) Résolution de l'équation différentielle sur la variable t nv T (t ) T (t ) 0 L 2 ''
La solution générale de cette équation différentielle s'écrit :
nv nv T (t ) Cn cos t Dn sin t L L
où Cn et Dn sont deux constantes arbitraires. -3 x 10 4 -3 x 10 5 3 2 Hauteur corde (mm) 2.5 1 0 0 -2.5 -1 -2 -5 0.5 0.4 0.1 0.3 -3 0.08 0.06 0.2 0.04 0.1 0.02 0 posistion x (m) 0 temps (s)
Figure 19 : Evolution de la hauteur de la corde en fonction du temps et de la position x -4
Si maintenant nous considérons que la position initiale de la corde suit une loi parabolique avec une vitesse initiale nulle : f ( x) 4h
x
L
x
L2 f(x
) Position à t=0
s h
Corde maintenue Corde maintenue x a = L/2 L Une double intégration par partie fournit le résultat suivant pour les coefficients An (les coefficients Bn sont nuls):
An 16h n 1
1 3 3
n
La position de la corde en fonction de x et du temps est alors donnée par la fonction suivante : y(
x, t ) n 1 16h nv n n 1 1 cos t sin x 3 3 n L L
Les variations de la position de la corde en fonction de x et de t sont données sur la figure suivante (pour h =5 mm, L = 0,5m et v = 30m/s). -3 x 10 hauteur de la corde (m) 5 2.5 0 -2.5 -5 0.5 0.4 0.1 0.3 0.08
0.06 0.2 posi
stion
x (m)
0.04 0.1 0.02
0
0 temps (s)
Figure 20 : Evolution de la hauteur de la corde en fonction du temps et de la position x 6. Aimant permanent dans une boite ferromagnétique (problème à 2 régions) 7. Bobine à noyau de fer (problème à 5 régions)3 3
Thi
erry Lubin, Kévin Berger, Abderrezak Rezzoug
. In
duct
ance and Force Calculation for Axisymmetric Coil Systems Including an Iron Core of Finite Length. Progress In Electromagnetics Research B, EMW Publishing, 2012,
41,
pp.377
-
396
Exerci
ces
d'
application
Exerci
ce
I : Résoudre
le
problème suivant
par
la méthode de séparation des variables (distribution de température T(x,t) dans une barre de cuivre isolée aux deux extrémités) :
T 2T (E) : k 2 t x (Ω) : 0 x L T T (F) : ( x 0; t ) 0 et ( x L; t ) 0 x x (I) : T ( x; t 0) f ( x) avec f ( x) ax
La
figure suivante illustre
le problème
à
ré
soud
re
. T x T x 0 x 0 0 x L x x=0 x=L f(x) aL f ( x) ax à t=0s x L aL Solution : T ( x, t ) 2 n 0 2 ( 2 n 1) t L k 4aL e 2 2 (2n 1) (2n 1) cos x L Exercice II : Résoudre par la méthode de s
éparation
des
variables
le
problème
suivant (
é
quation
des
onde
s
en 1D) 2u 1 2u où c
est une
constante x 2 c 2 t 2 (Ω) : 0 x L (F) : u( x 0; t ) 0 et u( x L; t ) 0 u ( x; t 0) 3 (I) : u( x; t 0) 0 et sin x t L (E) : Solution : u ( x, t ) L 3c 3 sin t sin 3c L L x Exercice III : Résoudre le problème suivant par la mé
thode
de s
éparation
des
variables
: y T 0 b TA (E) : 2T 2T 0 x 2 y 2 T 0 2T 2T 0 x 2 y 2 0 x a (Ω) : 0 y b (F) : T 0 Solution : T ( x, t ) 4A n 0 x a (2n 1)(a x) (2n 1) sh y sin b b ( 2 n 1 ) a (2n 1) sh b x 0 T x a T y 0 T y b T A 0 0 0
Exerci
ce IV :
Réso
udre le
probl
ème suivant par la méthode de
séparation des variables :
A
(
b
,
)
cos
( ) A 0 A(a, ) 0 a b 2 A 1 A 1 2 A (E) : 0 r 2 r r r 2 2 a r b (Ω): 0 2 (F) : A(r b; ) cos( ) A(r a; ) 0
Problème périodique :
A(r,0) A(r,2 ) A'(r,0) A'(r,2 ) r a a r cos
Solution :
A(
r,
)
b
a a b Exercice V : Résoudre le problème suivant par la méthode de séparation des variables (ruban de longueur infinie suivant y):
2u 2u 0 x 2 y 2 (Ω) : 0 x a et 0 y (E) : (F) : u( x 0; y) 0 et u( x a; y) 0 x (I) : u ( x; y 0) A1 et u( x; y ) 0 a Solution : u ( x, y ) 2A n 1 e n y a n n sin a x
Exercice VI : Résoudre le problème suivant par la méthode de séparation des variables :
2 A 1 A 1 2 A (E) : 0 r 2 r r r 2 2 a r b (Ω): 0 2 A(b; ) f ( ) A(a; ) 0 A(r; / 2) 0 A (r;0) 0 (F) : Solution : 2 n 1 2 n 1 r a a r A(r, ) An 2 n1 2 n1 cos (2n 1) n 1 b a a b avec An 4 2 0 f ( ) cos (2n 1) d et n 1, 2,3, 4,5 r a a r cos
Application : si f
( )
cos
(
), nous obtenons A
(
r
, ) b a
a
b
Exercice VII : Calcul analytique de l'induction magnétique créé par un rotor
à aimants permanents (stator lisse) ; Projet posé en Master de Génie électrique. r R1 R2 R3 R4 r Figure 1 : Géométrie de la machine à aimants
PARTIE 1 : Simulation numérique
En utilisant le logiciel de calcul de champ magnétique FEMM (logiciel libre disponible sur le net : http://www.femm.info/wiki/HomePage), on vous demande de tracer les lignes de champ dans la machine ainsi que la distribution angulaire de l'induction radiale et tangentielle au milieu de l'entrefer (r=72mm). Il faudra tout d'abord prendre en main ce logiciel (tutorial disponible sur le site), dessiner la structure et bien poser le problème (matériaux, conditions aux limites, maillage). On prendra r = 1000 dans les zones ferromagnétiques (stator et rotor) mais vous pourrez faire varier cette valeur pour voir l'effet sur le champ dans l'entrefer. FEMM est un logiciel de calcul de champ magnétique qui repose sur la méthode des éléments finis : méthode numérique approchée qui permet de résoudre les équations aux dérivées partielles avec conditions aux limites.
PARTIE 2 : Calcul analytique
On vous demande de déterminer la solution analytique de l'induction magnétique dans la région des aimants et dans l'entrefer. Il faudra résoudre des équations aux dérivées partielles en utilisant la méthode de séparation des variables (pour la solution analytique on considère r infini dans les zones ferromagnétiques mais on peut considérer une valeur constante). Il faudra poser correctement le problème : - Choisir une formulation pour résoudre le problème (champ magnétique, potentiel vecteur, potentiel scalaire), Déterminer les équations aux dérivées partielles à résoudre pour chaque région (aimants, entrefer, culasses ferromagnétiques), Déterminer les conditions aux frontières et les conditions de passage entre les régions, Calculer les constantes d'intégration Vous donnerez une expression approchée de l induction radiale en r=R3 pour le fondamental en fonction des paramètres p, R1, R2, R3, Br et . Cette expression est très utile pour le dimensionnement des machines à aimants car elle intervient directement dans l'expression du couple. PARTIE 3 : Comparaison des résultats
Vous comparerez les résultats obtenus à l'aide des deux méthodes (numérique et analytique, par exemple en superposant les courbes sur Excel). Une analyse critique des résultats obtenus est demandée. PARTIE 4 : Calcul du couple
Nous avons vu que le bobinage statorique peut être remplacé par une densité superficielle de courant placée en r = R3 qui s'écrit : Ks ks cos(p )u z L'interaction du champ créé par les aimants permanents avec la nappe de courant est à l'origine du couple électromagnétique. La figure 2 montre le champ résultant des deux sources. On remarque en particulier l'inclinaison des lignes de champ dans l'entrefer à l'origine du couple. On vous demande de déterminer l'expression du couple électromagnétique en fonction des paramètres en utilisant les 2 méthodes suivantes: - la force de Laplace - le tenseur de Maxwell Application numérique
: ks = 300A/cm Den
sité superficielle de courant stator Figure 1 : Géométrie de la machine à aimants rotor R1 R2 Ks = Ks cos(pθ+)uz R3 Figure 2 : Interaction Aimants – Nappe de courant ; Lignes de champ dans l'entrefer
Résultats attendus (Parties 1 et 2) BIBLIOGRAPHIE
Sur la méthode de séparation des variables (aspects mathématiques) : H. Reinhard, "Equations aux dérivées partielles: cours et exercices", 304 pages, Dunod. G. Evans, J. Blackledge and P. Yardley. "Analytic methods for partial differential equations", Springer S. J. Farlow. "Partial differential equations for scientists and engineers", Dover publication, New-york. V. P. Pikulin, and S. I. Pohozaev, Equations in mathematical physics: A practical course. Birkhäuser Verlag, 2001. P. M. Morse, and H. Feshbach, Methods of theoretical physics, 2 volumes, New York, McGraw-Hill, 1953 Sur les applications en thermique et en électromagnétisme : D. W Hahn, and M. N. Ozisi , Heat conduction, Wiley, New York, 1993 K. J. Binns, P. J. Lawrenson, and C. W. Trowbridge, The analytical and numerical solution of electric and magnetic fields. Wiley, New York, 1992. E. Durand. Electrostatique Tome II, Problèmes généraux conducteurs, Paris, France, Masson e Cie., 1966. E. Durand. Magnétostatique, Paris, France, Masson et Cie., 1968. F. Gardiol, Electromagnétisme. Presses Polytechniques et Universitaires Romandes, Lausanne, édition 2002. J. D. Jackson, Electrodynamique classique. Dunod, Paris, 2001.
ANNEXES A.1 Formulaire : Equations Différentielles Ordinaires du 2ème ordre 1.
| 31,473
|
02/tel.archives-ouvertes.fr-tel-00340823-document.txt_4
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 7,494
| 13,352
|
Les confrontations femelles vs femelle
Utilisant le même protocole que précédemment, des femelles de toute masse (masse moyenne sur l'ensemble des dyades = 53.48±11.52 mg, différence moyenne de masse au sein des dyades = 10.34±9.02 mg) et de différent statut reproductif (MN et MP) ont été confrontées en dyades (n = 32). Des manifestations d'agressivité sont effectivement observées chez les femelles mais elles se limitent à des coups d'antennes. Très généralement, la femelle attaquée s'écarte et fuit la femelle agressive. S'il arrive qu'une femelle riposte à une attaque, la confrontation n'évolue cependant jamais en combats tels qu'on peut les observer chez les mâles (en particulier pas de figure tournante en O). Il semble inapproprié de parler de relation de dominance et de hiérarchie chez les femelles. Sur l'ensemble des dyades, l'IAg. moyen des femelles au cours des 20 minutes de rencontre est de 141.89±588.24. Dans le détail, l'IAg. des femelles en MP (291.20±910.07, n = 25) se révèle significativement plus élevé que celui des femelles en MN (46.18±162.80, n = 39) (test de Mann & Whitney : U = 332.0, p = 0.03) (voir Figure 25).
1600 1200 U = 332.00, p < 0.05 IAg 800 400 0 -400 -800 femelle MP femelle MN
Figure 25 : Indice d'agressivité (calculé sur les 20 minutes de rencontre) des femelles en mue parturielle (MP) et des femelles en mue normale (MN). Valeurs moyennes ± ET. Il semble que les femelles en MP évitent tout contact (thigmotactisme négatif), et qu'elles se délimitent un périmètre de sécurité. Il pourrait s'agir d'un mécanisme de protection des génitrices en une période où elles sont particulièrement fragiles et vulnérables (présence du marsupium)*. Plus généralement, on peut y voir une forme de soins parentaux, puisqu'en s'isolant ainsi pendant la gestation et la mise-bas les femelles assurent une certaine protection à leur descendance (évitement du cannibalisme des pulli et de tout phénomène à densité dépendance).
A. 4.2. Les confrontations femelle masculinisée vs femelle
Nous avons voulu savoir si la présence d'hormone androgène circulante chez une femelle augmente son niveau d'agressivité. Pour cela, nous avons effectué, avec la collaboration de Pierre Juchault et Maryline Frelon, des implantations de glande androgène dans la cavité générale de jeunes femelles. Ces femelles ont ensuite été élevées en groupes pendant environ 8 mois (délai suffisant pour obtenir la synthèse et la libération dans l'hémolymphe d'hormone androgène). De tels individus restent anatomiquement femelles, l'action de l'hormone androgène s'opérant après la différentiation sexuelle (Juchault, 1966). Nous avons alors testé ces femelles expérimentales face à des femelles témoins (toutes les femelles utilisées ici sont en mue normale). Les résultats sont présentés graphiquement
Figure 26. 300 250 200 150 T = 24.50, p = 0.45 IAg femelle + GA femelle témoin Figure 26 : Indice d'agressivité (calculé sur 20 minutes) des femelles ayant reçu un implantât de glandes androgènes (GA) et des femelles témoins. Valeurs moyennes ± ET. Il ne ressort pas de différence significative d'agressivité entre les 2 types de femelles (test de Wilcoxon : T = 24.50, n = 11, p = 0.45). Au regard des indices d'agressivités, les femelles ayant reçu un implantât de glande androgène apparaissent même moins agressives que les femelles témoins (83.00±169.27 * Ce comportement particulier des femelles gravides (bien que non fécondées ici) chez Porcellionides pruinosus rappelle par sa fonction la tendance à l'enfouissement observée chez les femelles gravides d'Armadillidium vulgare. 70 Chapitre 2 vs 108.00±139.06). On s'aperçoit cependant que la variabilité autour de l'IAg moyen chez les femelles expérimentales est très important, comparativement à celui des femelles témoins. En fait, certaines de ces femelles ont présenté un répertoire comportemental de type mâle face à une femelle (montes et tentatives de montes), alors que d'autres n'ont été que partiellement masculinisées, et ont alors présenté un répertoire comportemental mixte (agressivité, montes et tentatives de montes).
A. 4.3. Les confrontations femelle masculinisée vs mâle
Nous avons alors testé des femelles ayant reçu un implantât de glande androgène face à des mâles. Cette fois pour s'assurer de l'efficacité de la masculinisation nous ne retiendrons que les dyades dans lesquelles les femelles expérimentales ne suscitent pas de comportement sexuel chez le mâle (n = 12). Les résultats sont présentés graphiquement Figure 27. 2000 1600 1200 IAg T = 21.00, p = 0.16 800 400 0 -400 femelle + GA mâ
le Figure 27 : Indice d'agressivité (calculé sur 20 minutes) des femelles ayant reçu un implantât de glandes androgènes (GA) et des mâles. Valeurs moyennes ± ET. Il s'avère que les femelles masculinisées présentent une agressivité plus forte que les mâles génétiques, même si la différence n'est pas significative (793.25±916.52 vs 261.67±263.37 : test de Wilcoxon : T = 21.00, n = 12, p = 0.16). En terme d'établissement de hiérarchie, et sur les mêmes critères que précédemment, 2 dyades ont vu la dominance d'une femelle masculinisée et 3 la dominance d'un mâle. Nous retiendrons simplement que l'hormone androgène a pour effet d'amener l'agressivité des femelles à un niveau comparable à celui des mâles.
2 A. 4.4. Synthèse
De ces tests effectués avec les femelles (femelle vs femelle ; femelle + implantât vs femelle ; femelle + implantât vs mâle), il ressort que l'hormone androgène a un effet de catalyseur sur le développement de l'agressivité. En effet, si sa présence en tant qu'hormone circulante permet d'élever l'agressivité des femelles à un niveau identique à celui manifesté par les mâles, son absence (chez les femelles génétiques) n'est pas associée à une agressivité nulle. Il existe bel et bien un comportement agressif de base chez les femelles. Il faut donc postuler l'existence d'un autre messager présent chez les 2 sexes mais dont l'effet pourrait être modulé en fonction de la quantité d'hormone androgène circulante. Que nous apprend la littérature à ce sujet? Les bases neuro-éthologiques de l'agressivité chez les crustacés ont été particulièrement étudiées par les chercheurs du Département de Neurobiologie de Boston (Huber et Kravitz entres autres). Toutes leurs études dérivent des expérimentations de Livingstone et al. (1980) qui, en injectant diverses amines dans l'hémolymphe de homard, ont pu obtenir des postures caractéristiques de dominance (sérotonine) ou de subordination (octopamine). Huber & Kravitz (1995) ont dressé un éthogramme complet des comportements agonistiques chez les homards. Là encore, chez ces décapodes, les coups d'antennes font partie intégrante du comportement agressif. Chez le homard Homarus americanus comme chez l'écrevisse Astacus astacus, il est possible d'inverser temporairement la relation de dominance d'une dyade de mâles en injectant aux subordonnés une solution de sérotonine. Chez les Isopodes terrestres, malgré l'absence de travaux spécifiques sur ce sujet, Martin (1978) a tout du moins montré qu'il existe des récepteurs cérébraux à la sérotonine. Nous avons voulu tester l'action de la sérotonine aux concentrations indiquées par les auteurs sur les décapodes. Cependant, ce qui est possible sur des décapodes, l'est moins sur les isopodes terrestres, et encore moins sur Porcellionides pruinosus en raison de la souplesse de ses téguments. Dans les expérimentations sur Astacus astacus, les auteurs infusent en continu un sérum sérotonique (3μg/min pendant 60 min) par l'intermédiaire d'un canalicule donnant directement dans le sinus péricardiaque. Il ne nous a pas été possible d'injecter directement dans la cavité péricardiaque de P. pruinosus. Des injections ponctuelles directement dans la cavité générale ont néanmoins été réalisées (15 μg). Les effets apparaissent quelques minutes après l'injection et correspondent en tout point à ceux décrits chez le homard et chez l'écrevisse. Chapitre 2 A.5. Conséquences de la hiérarchie
Voyons maintenant si le statut de dominant confère quelconques avantages en termes d'accès aux ressources du milieu. Des mâles de même cohorte ont été préalablement mis en confrontation 2 à 2 pendant 1h afin que s'établissent des liens hiérarchiques entre eux (masse moyenne = 53.59±8.64 ; différence moyenne de masse = 3.17±1.87). Les 2 mâles sont ensuite introduits simultanément dans une boîte de Pétri divisée virtuellement en 5 zones (4 secteurs de surface identique, plus une zone centrale d'introduction des animaux) (voir Figure 28).
Figure 28 : Schéma de la boîte d'expérimentation. Quatre secteurs de surface identique (S = 17.47 cm2), et une zone centrale d'introduction des animaux (S = 1.13 cm2).
Le secteur refuge contient une feuille sèche. Un des secteurs contient une feuille morte sous laquelle les animaux peuvent se réfugier (secteur refuge). L'hypothèse de départ est que pour ces animaux à tendance lucifuge et vivant à couvert, le secteur refuge doit présenter une valeur biologique supérieure aux 3 autres secteurs. Le comportement et la distribution des 2 mâles au sein de la boîte d'expérimentation est suivi pendant 1 heure (enregistrement sur support vidéo). Au total 23 réplicats ont été effectués.
A. 5.1. Distribution spatiale et temporelle des mâles
Le temps passé dans chaque zone est consigné Tableau 12. Le secteur contenant la feuille est celui dans lequel les mâles ont passé le plus de temps (environ 40 minutes). A l'inverse, le secteur diamétralement opposé au secteur refuge a été le moins occupé (environ 6 minutes). Le temps d'occupation de la zone centrale (environ 30 secondes) ne sera pas comptabilisé par la suite. Il existe une différence significative dans le temps d'occupation des 4 secteurs expérimentaux (KruskalWallis : H[3, 184] = 94.43, p < 0.001), et c'est le secteur refuge qui explique cette différence (test de Dunn pour comparaisons multiples 2 à 2 : secteur refuge vs autres secteurs : p < 0.001).
Zones Durée refuge adjacente 1 adjacente 2 opposée centrale Moyenne ± ET 2344.98 ± 829.65 2367.00 424.06 ± 425.77 267.00 460.24 ± 391.50 385.00 344.56 ± 362.46 192.00 26.15 ± 152.68 29.00 Médiane Tableau 12 : Durée d'occupation (en seconde) des différentes zones (4 secteurs + 1 zone centrale) de la boîte d'expérimentation (n = 46 mâles).
itre 2 Corrélativement, le nombre d'interactions entre les mâles n'est pas homogène entre les 4 secteurs (Kruskal-Wallis : H[3, 184] = 92.33, p < 0.001). Le maximum d'interactions a lieu dans le secteur refuge (test de Dunn pour comparaisons multiples 2 à 2 : secteur refuge vs autres secteurs : p < 0.001) (voir Tableau 13).
Secteurs Nb d'interactions totales Moyenne ± SD Médiane refuge adjacent 1 adjacent 2 opposé 20.26 ± 11.73 18.00 2.57 ± 3.24 2.00 4.54 ± 6.08 2.00 2.26 ± 4.46 1.00 Tableau 13 : Nombre d'interactions (contacts antennaires sur une quelconque partie du corps de l'
mâle) dans les différents secteurs de la boîte d'expérimentation (n = 46 mâles). Le nombre d'interactions agressives est significativement plus important dans le secteur refuge (Kruskal-Wallis : H[3, 184] = 34.20, p < 0.001 ; test de Dunn pour comparaisons multiples 2 à 2 : secteur refuge vs autres secteurs : p < 0.01) (voir Tableau 14). Il semble donc en première instance que la feuille soit une ressource pour laquelle les mâles entrent en compétition.
Secteurs Nb d'interactions agressives Moyenne ± SD Médiane refuge adjacent 1 adjacent 2 opposé 8.24 ± 9.95 4.50 1.07 ± 1.96 0.00 1.65 ± 2.70 0.50 0.96 ± 2.49 0.00 Tableau 14 : Nombre d'interactions suivies de manifestations agressives (coups d'antennes, poursuites, morsures) dans les différents secteurs de la boîte d'expérimentation (n = 46 mâles). Ce
pendant
,
tenant compte du fait que
les
interactions entre mâles ne se
distribu
ent pas aléatoirement
au sein
de la boîte d'expérimentation, il convient de rapporter, pour chaque secteur, le nombre d'interactions agressives au nombre d'interactions totales. Les résultats sont présent
és
dans le Tableau 15 et illustrés
graphique
ment
Figure 29.
Secteurs Ratio
interaction
s
agressives
m
oyenne
médiane
refuge
adj
acent 1 adjacent 2 opposé 0.35±0.31 0.34 0.35±0.39 0.17 0.41±0.42 0.42 0.45±0.42 0.45 Tableau 15 : Proportion d'interactions agressives (nombre d'interactions agressives/nombre d'interactions totales) dans les différents secteurs de la boîte d'expérimentation (n = 46 mâles). ompétition intra-sexe 120 H = 1.13, p = 0.77 % interactions agressives 100 80 60 40 20 0 -20 refuge adjacent 1 adjacent 2 opposé secteurs
Figure 29 : Proportion d'interactions agressives (nombre d'interactions agressives*100/nombre d'interactions totales) dans les différents secteurs de la boîte d'expérimentation (n = 46 mâles).
eurs médianes ± 25 %. Il ne ressort plus de différence d'agressivité en fonction des secteurs (Kruskal-Wallis : H[3,148] = 1.13, p = 0.77). Nous montrons ainsi que les manifestations d'agressivité des mâles ne sont pas spécifiquement orientées vers la défense d'un territoire particulier. Simplement, la tendance naturelle de ces animaux à rechercher l'obscurité (phototropisme négatif) fait que la plupart des comportements agressifs sont observés à proximité du refuge matérialisé par la feuille.
A. 5.2. Influence de la hiérarchie en terme d'accès à un territoire
Sur l'ensemble des 23 rencontres mâle-mâle, une hiérarchie s'est clairement établie dans 20 dyades (soit 87 %). Le critère retenu pour la mise en évidence de liens hiérarchiques est le même que précédemment (5 dernières attaques non suivies de ripostes), mais l'établissement d'une hiérarchie est ici jugée au terme de 120 minutes de confrontation (pour rappel, dans des conditions similaires, la proportion de hiérarchie établie après 20 minutes était de 67 %). Pour 14 des dyades hiérarchisées (soit 70 %), le mâle dominant a occupé plus longuement le secteur refuge que le mâle dominé (2506.10 ± 749.73 vs 2176.75 ± 984.65). Cependant, la différence entre mâle dominant et mâle dominé pour le temps d'occupation n'est pas statistiquement significative (test de Wilcoxon : n = 20, T = 67.00, z = 1.42, p = 0.16). L'illustration est donnée
Figure 30. 75 Chapitre 2 durée d'occupation secteur refuge (s.) 4000 T = 67.00, p = 0.16 3500 3000 2500 2000 1500 1000 500 0 mâle dominant mâle dominé Figure 30 : Durée d'occupation du secteur refuge en fonction du statut hiérarchique. Valeurs médianes ± 25 %.
A. 5.3. Influence de la hiérarchie en terme d'accès aux femelles
Au terme des 120 minutes de rencontre mâle-mâle, une femelle réceptive à l'accouplement (période C d'une mue normale)* est introduite dans la boîte d'expérimentation. Les interactions des 2 mâles avec cette femelle sont suivies pendant 30 minutes. Une interaction mâle est dite sexuelle lorsqu'il y a monte ou tentative de monte (et a fortiori copulation). Les résultats sont consignés
Tableau 16.
Le nombre total d'interactions du mâle dominant avec la femelle est significativement plus important (21.90±13.62 vs 16.20±10.51 : T = 37.50, p < 0.05). Il en est de même du nombre d'interactions sexuelles (3.55±3.02 vs 2.15±2.39 : T = 30.00, p < 0.05). Par contre, il n'y a plus de différence entre dominant et dominé si l'on compare la proportion des interactions sexuelles (0.19 ± 0.15 vs 0.13 ± 0.13 : T = 64.00, p = 0.21). Sur l'ensemble des 20 observations, des accouplements ont été observés dans 9 dyades (soit 45 %). Certains accouplements ayant consisté en des copulations unilatérales, nous raisonnerons en terme d'hémicopulations. Il n'y a pas de différence significative dans le nombre d'hémi-copulations des mâles dominant et mâles dominés (2.33±3.08 vs 1.67±1.94 : T = 22.00, p = 0.95). Il n'y a pas non plus de différence dans la durée de copulation (227.67±286.69 vs 104.56±122.35 : T = 15.00, p = 0.37). * Chez cette espèce, l'accouplement des femelles est supposé pouvoir intervenir à tout moment d'un cycle de mue, à l'exception de la période
d'
incu
bation marsupiale
. Nous avons également des données qui montrent l'accouplement est possible après la mise-bas, en mue parturielle. Chapitre 2 Comportements vs ♀ Nb interactions moyenne
± ET médiane Nb interactions sexuelles moyenne ± ET médiane Ratio interactions sexuelles moyenne ± ET médiane Nb d'hémi-copulations moyenne ± ET médiane Durée copulation (s) moyenne ± ET médiane Mâle dominant Mâle dominé Statistiques 21.90 ± 13.62 20.00 16.20 ± 10.51 12.00 n = 20, T = 37.50, z = 2.32, p = 0.02 3.55 ± 3.02 3.00 2.15 ± 2.39 1.00 n = 20, T = 30.00, z = 2.20, p = 0.03 0.19 ± 0.15 15 0.13 ± 0.13 11 n = 20, T = 64.00, z = 1.25, p = 0.21 2.33 ± 3.08 2.00 1.67 ± 1.94 1.00 n = 9, T = 22.00, z = 0.06, p = 0.95 227.67±286.69 185.00 104.56±122.35 62.00 n = 9, T = 15.00, z = 0.89, p = 0.37
Tableau 16 : Comportements
interactifs des mâ
les
avec la femelle en fonction de leur statut hiérarchique
. En
de
rnière
colonne
sont
données
les statisti
ques
de comparaisons (test de Wilcoxon). A. 5.4. Synthèse
En terme d'interactions, la position de dominant offre un accès prioritaire à la ressource femelle. Cependant, l'activité sexuelle des mâles dominants (nombre d'interactions sexuelles rapportées au nombre total d'interactions) n'est pas statistiquement supérieure à celle des mâles dominés. Non seulement, le mâle dominant ne peut monopoliser la femelle, mais le mâle dominé, même continuellement brimé, n'est pas sexuellement inhibé. Les différences entre dominant-dominé ne sont jamais significatives en terme de copulation. Le mâle dominé n'est donc pas exclu de la reproduction. Par ailleurs, considérant les conditions particulières de l'expérimentation (agressivité artificiellement stimulée, hiérarchie à 2 individus), on peut légitimement s'interroger sur le développement de liens hiérarchiques en milieu naturel. Des observations en conditions moins artificielles (boîte d'élevage de plus grande dimension, nombre de mâles plus important) montrent effectivement que certains individus fuient systématiquement en réponse aux coups d'antennes de quelques gros mâles, mais il est difficile d'imaginer une relation de dominance stricte. Les notes laissées par Mead (1970) au sujet de Porcellionides sexfasciatus sont particulièrement informatives à ce sujet : « Les manifestations d'agressivité sont fortes lorsque trois ou quatre mâles seulement sont mis en présence ; elles s'atténuent beaucoup quand le nombre d'individus augmente ». En fait, l'importance de cette compétition d'interférence et ses conséquences en terme de succès reproducteur peut éventuellement se concevoir pour des populations à faible densité et où les ressources sont distribuées par patch (exemple des milieux désertiques). En zones tempérées, où des dizaines voire des centaines d'individus vivent en milieu confiné (compost, fumier), il est par contre difficile d imaginer la réalité effective de la hiérarchie. Les exemples d'évolution comportementale en fonction des pressions environnementales locales sont nombreux dans la littérature (Pusey & Packer, 1997). Ainsi par exemple, des 77 Chapitre 2 animaux normalement grégaires comme les blattes vont développer une stratégie de monopolisation des ressources lorsque les densités de population deviennent compatibles avec la défense d'un territoire (Hall, 1994). B. Stratégie compétitive et dimorphisme antennaire
Nous avons vu en introduction de ce chapitre que l'existence d'une compétition inter-mâle est signalée chez certains Oniscidea. Pour tous les Porcellionidae (Porcellionides pruinosus, Porcellionides sexfasciatus, Porcellio sp.), pour le Ligidae Ligia exotica et pour les Trachelipodidae du genre Hemilepistus, les antennes sont systématiquement utilisées comme «armes de combats». C'est également le cas pour Venezillo evergladensis qui appartient à la famille des Armadillidae, pourtant caractérisée par des organes antennaires peu développés. Jonhson (1985) écrit à ce sujet que quand 2 mâles se rencontrent « their cephalon came very close to actual contact and active antennal tapping began ». Parallèlement à ce constat, on trouve signalé dans les écrits de Vandel (1960, 1962) l'existence d'un dimorphisme sexuel antennaire en faveur des mâles. C'est le cas chez les genres Trichoniscus et Hyloniscus (famille des Trichoniscidae), Ctenosia (Oniscidae), et Porcellio (Porcellionidae). L'auteur n'avance aucune raison pour expliquer ce dimorphisme, mais le fait que les antennes soient systématiquement impliquées dans les combats, nous a conduit à penser que la longueur de ces organes aurait pu évoluer sous la pression sélective de la compétition inter-mâles. Pour tester cette hypothèse, nous avons entrepris une étude comportementale et une étude morphométrique chez plusieurs espèces en vue d'une analyse comparative. L'étude comportementale s'est attachée à rechercher et quantifier l'intensité de la compétition inter-mâle chez 6 autres espèces, dont bon nombre appartiennent à la famille des Porcellionidae (qui nous l'avons vu utilisent antennes en tant qu' « armes de combat »). L'étude morphométrique s'est quant à elle attachée à quantifier chez les 7 espèces l'importance du dimorphisme antennaire. Les résultats seront intégrés par une analyse comparative qui mettra en corrélation l'amplitude du dimorphisme et l'intensité de la compétition inter-mâle chez les espèces qui utilisent leurs antennes dans les combats. Une partie de ce travail a été réalisée avec l'aide de Maxime Limousin (stagiaire de maîtrise, promotion 1997-1998). L'ensemble des résultats est également présenté au travers d'une publication en annexe n°3. B.1. Comportement d'agressivité chez les mâles Oniscidea :recherche et quantification
Les espèces étudiées appartiennent aux 3 familles suivantes : Porcellionidae, Oniscidae, Armadillididae. La famille des Porcellionidae a fait l'objet d'une attention particulière en raison, nous l'avons 78 Chapitre 2 vu, de l'existence d'une agressivité inter-mâle reconnue chez plusieurs espèces (dont Porcellionides pruinosus). Trois nouvelles espèces de Porcellionidae ont ainsi été étudiées : Porcellionides cingendus, Porcellio scaber et Porcellio dilatatus. La famille des Oniscidae est représentée par l'espèce Oniscus asellus. Pour les Armadillididae, l'étude a porté sur Armadillidium vulgare et Armadillidium nasatum. L'étude a été effectuée en période de reproduction (mai-juin), sur des mâles sexuellement matures (cohorte d'un an d'âge). Pour toutes les espèces, les tests ont été conduits de manière synchrone. Les 2 mâles sont introduits simultanément dans la boîte de Pétri. Le comportement individuel de chacun des mâles est enregistré sur une période de 20 minutes. Pour chaque espèce, un minimum de 18 rencontres mâle-mâle ont été effectuées. Un descriptif synthétique des rencontres, espèce par espèce, est donné ci-après. • Porcellionides pruinosus : Voir descriptif détaillé en début de chapitre. Pour rappel : coups d'antennes, combats antennaires, morsures. La fin d'une phase de combat se solde très souvent par une poursuite de l'individu qui semble l'avoir emporté. • Porcellionides cingendus : Comportement agressif en tout point identique à celui décrit pour P. pruinosus. Il n'en diffère que une intensité encore plus élevée. La quasi-totalité des interactions évoluent en combats antennaires. • Porcellio scaber : Il est assez fréquent qu'un mâle, après contact antennaire, donne des coups d'antennes sur une quelconque partie du corps de l'autre. Des combats antennaires sont observés, mais évoluent rarement en poursuites. Pas de morsures. • Porcellio dilatatus : Même comportement que pour l'espèce précédente, mais en moins accentué. Peu de combats antennaires, pas de morsures, pas de poursuites. • Oniscus asellus : Quelques interactions ont donné lieu à des coups d'antennes. Pas de combats antennaires, pas de morsures, pas de poursuites. • Armadillidium vulgare : Quelques interactions ont donné lieu à des poussées frontales dans lesquelles un individu entre frontalement en contact avec le corps de l'autre et utilise sa masse pour « forcer le chemin ». Il est bien évident que lorsque les 2 mâles font de même, l'ensemble peut prendre une allure de confrontation. Ce comportement reste sporadique. Pas de coups d'antennes, pas de morsures, pas de poursuites. • Armadillidium nasatum : Quelques interactions ont donné lieu à un comportement de monte d'un des mâles sur l'autre mâle. Dans ce cas, le mâle monté réagit par de brèves saccades droite-gauche qui abrègent le comportement de monte. Pas de coups d'antennes, pas de morsures, pas de poursuites. Pour chaque espèce, des rencontres types ont été visionnées séparément par 3 personnes. Cette précaution a été prise en vue de limiter la subjectivité liée à l'interprétation des comportements observés, et en particulier à la catégorisation agressive ou non agressive des différents items comportementaux. Nous avons finalement choisit de retenir l'ensemble des comportements agonistiques suivants : coups d'antennes, morsures, poussées frontales, montes, poursuites. C'est ensuite par la fréquence et l'intensité de ces items comportementaux que sera jugée l'agressivité d'une espèce. Il convenait également, en vue d'une comparaison interspécifique, de tenir compte de l'activité générale propre à chaque espèce. En effet, si la plupart des Porcellionidae sont très actifs (runners dans la classification de Schmalfuss, 1984), les Armadillididae sont eux beaucoup moins mobiles (rollers) (pour détails de la classification, voir la partie Matériel & Méthodes). L'activité générale sera ici quantifiée par le produit (durée*occurrence) de l'ensemble des comportements interactifs (contacts antennaires simples + items comportements précédemment cités). L'indice d'agressivité pour un mâle donné et pour une espèce donnée sera finalement calculé comme suit :
IAg = Comportement agressif (durée*occurrence) _______________________________ Comportement interactif (durée*occurrence)
Les résultats concernant la quantification de l'agressivité inter-mâle sont présentés ci-après Tableau P. cingendus * (n = 20) P. pruinosus * (n = 30) P. scaber * (n = 18) A. vulgare (n = 20) A. nasatum (n = 26) P. dilatatus * (n = 20) O. asellus * (n = 20) Comportement agressif Comportement interactif durée occurrence durée occurrence 29.5 57.0 37.0 41.0 24.0 26.5 3.5 6.0 11.0 8.0 5.0 4.0 3.5 1.0 33.0 75.5 89.0 93.5 107.5 84.0 51.0 7.0 17.5 15.0 17.0 21.5 16.0 6.0 IAg 0.660 0.402 0.212 0.087 0.068 0.060 0.007 Tableau 17 : Durée et nombre d'occurrence par rencontre (valeurs médianes) des comportements agressifs et interactifs. Les espèces sont classées par valeur décroissante de leur indice d'agressivité (colonne de droite). * indique les espèces utilisant leurs antennes dans les manifestations agressives. L'indice d'agressivité varie dans une large gamme, de 0.660 pour l'espèce la plus agressive à 0.007 pour l'espèce la moins agressive. De l'ensemble de ces données, il ressort que seules 3 espèces sont indiscutablement agressives : Porcellionides cingendus (IAg = 0.660)
Porcellionides
pruinosus (IAg = 0.402), Porcellio scaber (IAg = 0.212). Ces 3 espèces
utilisent
tout
es
leurs
antennes
comme «
armes de combats ». Les espèces Porcellio dilatatus et Oniscus asellus utilisent également leurs antennes pour donner des coups, mais se montrent peu voir pas agressives (IAg respectifs : 0.060 et 0.007). Bien que les autres espèces considérées aient pu manifester certains comportements à connotation agressive (poussées frontales 80 Chapitre 2 chez Armadillidium vulgare, montes chez Armadillidium nasatum),
nous
ne pouvons pas non plus les considérer
comme
agressives
(IA
g
respectifs :
0.0
87 et
0.0
68).
outre, il faut se rappeler que ces comportements ont été obtenus dans des conditions optimales pour le développement d'une agressivité (masses identiques, espace confiné, condition d'isolement préalable), et que de fait, leurs faibles occurrences dans l'enceinte d'observation, rend improbable leur réalité effective en populations naturelles. Il est remarquable de noter que les 3 espèces résolument agressives appartiennent à la famille des Porcellionidae. En y ajoutant Porcellionides sexfasciatus, étudié par Mead (1973), et les Porcellio nord africains cités par Linsenmair (1984), il semble que l'agressivité inter-mâle puisse être considérée comme une particularité phénotypique largement développée au sein de cette famille. B.2. Étude morphométrique : mesure du dimorphisme sexuel antennaire
Chez les Oniscidea, l'antenne est constituée de 5 articles et d'un flagelle terminal dont la taille, la forme et le nombre de segments varient considérablement suivant les espèces. Pour chaque sexe et pour chacune des espèces nous avons prélevé l'antenne dans sa globalité en pratiquant une excision au niveau de l'article basal (coxa). L'antenne est alors montée sur lame et fixée sur de la graisse siliconée. Les mesures sont systématiquement effectuées sur la face ventrale de l'antenne gauche. Un microscope muni d'un oculaire gradué autorise une précision de mesure de ± 30 μm. Le détail des mesures et points de repères sont illustrés Figure 31. Dans la pratique, le coxa se trouve trop souvent endommagé lors de l'ablation pour être retenu dans l'analyse morphométrique. Les mesures ont porté sur la longueur du basis (BA), la longueur des 3 articles de l'endopodite (ART1, ART2, ART3), et la longueur des segments du flagelle* (F1, F2 et pour Oniscus asellus F3). Une mesure de la longueur totale a également été effectuée du basis à l'extrémité du flagelle (antenne étendue). La longueur de l'antenne (A2) sera donnée pour chaque individu comme la moyenne entre la mesure directe et la somme des différentes parties. Nous avons également pris en compte la largeur du basis (ba) qui pourrait également être sexuellement dimorphique en raison de son rôle de support de l'antenne (Hoese, 1989).
* Le flagelle de l'antenne des Oniscidea est constitué d'un nombre variable de segments suivant les espèces. Ce nombre est important pour les espèces dites primitives (Ligidae, Trichoniscidae),
il est
de 3 pour les genres Philoscia, Oniscus et Eubelum
et se réduit à 2 chez tous les autres genres étudiés jusqu'ici (Porcellio, Armadillidium, Hemilepistus) (Vandel, 1960 ; Hoese, 1989). F2 Chapitre 2
A B F1 ART3 T2 AR REF BA T1 AR ba Figure 31 : A. Croquis de l'antenne gauche (vue ventrale) et localisation des différentes mesures effectuées. BA : longueur du basis, ba : largeur du basis, ART1, ART2, ART3 : longueur des articles 1, 2, 3, F1, F2 : longueur des segments 1 et 2 du flagelle. B. Croquis d'un péréiopode de la 3e paire (vue latérale) et localisation de la mesure pour la longueur de référence du basis (REF). Bien que les mesures aient porté sur des animaux tous issus d'une même cohorte (1 an), les longueurs d'antennes seront rapportées à une longueur de référence. Deux raisons à cela : l'existence d'une forte variabilité de croissance inter-individuelle (en raison notamment de densités hétérogènes au sein des boîtes d'élevage) et l'existence d'un dimorphisme corporel en faveur des femelles. Classiquement, la longueur du corps est utilisée comme dimension de référence en raison de la rapidité de sa mesure, et de la facilité d'interprétation du rapport exprimé. Cependant, la possibilité d'extension des membranes inter-segmentaires rend sa mesure par trop imprécise chez les Oniscidea. La longueur du basis d'un péréiopode est une mesure plus fiable, souvent utilisée chez d'autres crustacés (Tessier, 1955, Charniaux-Cotton, 1957). Par ailleurs, Mocquard (1971) chez Oniscus asellus précise que cet article n'est pas sexuellement dimorphique. Nous avons donc choisi d'utiliser la longueur du basis du 3e péréiopode comme dimension de référence (REF). La mesure est effectuée sur la face externe, comme indiqué Figure 31. La validité de cette mesure de référence a été vérifiée en testant l'homogénéité des coefficients de Pearson obtenus pour chacun des sexes par la corrélation entre les variables A2 et REF. Pour toutes les espèces, l'homogénéité des coefficients de corrélation est vérifiée (p > 0.05) ce qui permet de confirmer que la longueur de référence (REF) n'est pas sous l'influence sexuelle. Pour chacune des 7 espèces, les mesures sont effectuées sur 15 mâles et 15 femelles. Les données morphométriques sont consignées dans le Tableau 18. Chap
itre 2 P. scaber P. dilatatus A. vulgare O. asellus A. nasatum P. pruinosus P. cingendus A2 ♂ A2 ♀ ba ♂ ba ♀ REF ♂ REF ♀ 7526.91 ±469.05 6666.85 ±443.81 5033.61 ±352.78 7289.29 ±430.22 4940.51 ±260.81 6767.93 ±670.39 2681.35 ±179.69 7162.49 ±649.72 6102.93 ±263.03 4834.99 ±286.97 7928.57 ±573.88 5668.46 ±494.95 6617.86 ±436.69 2673.83 ±333.83 794.45 ±61.04 794.45 ±54.94 452.20 ±36.19 579.88 ±37.89 446.88 ±26.98 496.53 ±52.88 221.84 ±14.56 735.93 ±67.94 704.01 ±56.75 456.81 ±23.26 624.21 ±38.76 471.71 ±38.24 507.62 ±36.68 223.72 ±19.12 1669.77 ±106.21 1837.88 ±103.45 1619.41 ±91.57 1694.95 ±74.58 1321.49 ±73.57 1434.27 ±155.82 628.39 ±47.58 1833.27 ±162.65 1929.39 ±83.72 1755.25 ±98.89 2019.12 ±136.54 1703.11 ±147.96 1470.09 ±86.09 640.14 ±64.41 Tableau 18 : Moyennes ± ET des différentes mesures effectuées chez les mâles (n = 15) et femelles (n = 15) des 7 espèces étudiées (en μm). A2 : longueur de l'antenne, ba : largeur du basis de l'antenne, REF : longueur de référence (longueur du basis de la 3e paire de péréiopodes).
L'existence d'un dimorphisme antennaire est testée par ANCOVA avec le sexe comme facteur de groupe, A2 comme variable dépendante et REF comme covariable (régresseur). Pour satisfaire aux conditions de normalité, les données ont été transformées en leur logarithme népérien. Les résultats sont présentés Tableau 19. P. scaber P. dilatatus A. vulgare O. asellus A. nasatum P. pruinosus P. cingendus Moyennes ajustées A2 ♂ A2 ♀ Dimorphisme ♂ vs ♀ en % (μm) Statistiques 8.9694 ±0.0063 8.8277 ±0.0073 8.5653 ±0.0066 8.9899 ±0.0078 8.6206 ±0.0089 8.8118 ±0.0076 7.9008 ±0.0095 +15.2 % (1040 μm) +14.7 % (873 μm) +13.5 % (626 μm) +11.8 % (848 μm) +10.3 % (517 μm) +4.5 % (287 μm) +2.6 % (68 μm) 8.8275 ±0.0063 8.6907 ±0.0073 8.4383 ±0.0066 8.8781 ±0.0078 8.5228 ±0.0089 8.7681 ±0.0076 7.8753 ±0.0095 F[1,27] = 221.97 p < 0.001 F[1,27] = 160.04 p < 0.001 F[1,27] = 152.46 p < 0.001 F[1,27] = 66.10 p < 0.001 F[1,27] = 37.21 p < 0.001 F[1,27] = 14.62 p < 0.001 F[1,27] = 0.02 p = 0.89
Article
(s)
discriminant(s) BA** ART3*; BA* F2**; BA* F3** F2**; BA* – – Tableau 19 :
Le dimorphisme sexuel antennaire de longueur chez les 7 espèces étudiées. Dans les 2 premières colonnes, la longueur de l'antenne chez les mâles et femelles est rapportée à une même longueur de référence (moyenne ajustée ± erreur-type, après transformation par logarithmes népériens). Dans la troisième colonne, le dimorphisme antennaire en faveur des mâles est exprimé en % calculé sur la différence des 2 premières colonnes, ainsi qu'en équivalent micrométrique. Les résultats statistiques correspondent à une ANCOVA. En dernière colonne, sont donnés les articles qui contribuent significativement aux différences mâles-femelles (analyse discriminante *
: p < 0.05, ** : p < 0.001
).
Chapitre 2 A longueur de référence égale, l'antenne des mâles se révèle plus développée que celle des femelles, et la différence est statistiquement significative pour toutes les espèces à l'exception de P. cingendus. Le dimorphisme, exprimé en % de longueur en faveur du mâle, ainsi qu'en équivalent micrométrique, varie de 2.6 % (68 μm) pour Porcellionides cingendus à 15.2 % (1040 μm) pour Porcellio scaber. Une analyse discriminante a été effectuée sur les 5 mesures intermédiaires de l'antenne (BA, ART1, ART2, ART3, F1, F2, F3) pour identifier les articles qui contribuent majoritairement au dimorphisme antennaire. Les résultats ne sont pas consistants sur l'ensemble des espèces (Tableau 19). Cependant, pour les espèces où le dimorphisme antennaire est supérieur à 10 % (P. scaber, P. dilatatus, A. vulgare, A. nasatum et O. asellus), ce sont les articles proximaux (basis) et/ou distaux (F2 ou F3) qui interviennent principalement dans les différences mâles-femelles. Moyennes ajustées P. dilatatus P. scaber A. nasatum A. vulgare O. asellus P. cingendus P. pruinosus Dimorphisme ♂ vs ♀ ba ♂ ba ♀ en % (μm) Statistiques 6.6940 ±0.0184 6.7093 ±0.0182 6.1655 ±0.0266 6.1451 ±0.0147 6.4077 ±0.0218 5.4053 ±0.0137 6.2003 ±0.0181 6.5351 ±0.0184 6.5626 ±0.0182 6.0884 ±0.0266 6.0890 ±0.0147 6.3878 ±0.0218 5.4016 ±0.0137 6.2182 ±0.0181 +17.2 % (119 μm) +14.7 % (104 μm) +7.9 % (35 μm) +5.8 % (25 μm) +2.0 % (12 μm) +0.4 % (1 μm) -1.8 % (-9 μm) F[1,27] = 33.58 p < 0.001 F[1,27] = 28.25 p < 0.001 F[1,27] = 2.56 p = 0.121 F[1,27] = 5.98 p < 0.05 F[1,27] = 0.27 p = 0.608 F[1,27] = 0.04 p = 0.849 F[1,27] = 0.48 p = 0.493
Tableau
20 : Le dimorphisme sexuel antennaire au niveau de la largeur du basis chez les 7 espèces étudiées. Dans les 2 premières colonnes, la longueur de l'antenne chez les mâles et femelles est rapportée à une même longueur de référence (moyenne ajustée ± erreur-type, après transformation par logarithmes népériens). Dans la troisième colonne, le dimorphisme antennaire en faveur des mâles est exprimé en % calculé sur la différence des 2 premières colonnes, ainsi qu'en équivalent micrométrique. Les résultats statistiques correspondent à une ANCOVA. Analyse comparative et intégration des résultats
Le dimorphisme antennaire en faveur des mâles n'est pas systématiquement associé à l'utilisation des antennes dans la compétition intra-mâle. L'illustration est parfaitement donnée avec les 2 espèces du genre Armadillidium, dont les mâles n'utilisent pas les antennes au combat et qui sont pourtant sexuellement dimorphique (tant au niveau de la longueur totale d'antenne que de la largeur du basis). Pour les autres espèces nous allons étudier, par analyse comparative, la relation entre l'intensité des combats antennaires et l'amplitude du dimorphisme. Dans ce genre d'analyse, les statistiques classiques de corrélation ne conviennent plus parce que nos points, en l'occurrence les espèces, ne sont pas indépendants (Harvey & Pagel, 1991). En effet, des espèces proches vont avoir tendance à partager des similarités (morphologiques ou autres) qui résultent plus que d'un héritage commun que d'adaptations indépendantes. En raison de cette inertie phylogénétique, il convient dans notre analyse de corrélation de tenir compte de la proximité entre espèces. Nous utiliserons à cet effet le logiciel CAIC 2.0 (Purvis & Rambaut, 1995) qui recalcule des valeurs contrastées (corrigées) pour chacune des variables à étudier (contrastes linéaires indépendants). La phylogénie utilisée est celle récemment proposée par Michel-Salzat & Bouchon (2000) à partir des séquences 16S de l'ARN ribosomial. En l'absence de données précises et non équivoques sur les unités évolutives de changement, la longueur des branches au sein de l'arbre phylogénétique sera fixée à 1, conformément aux recommandations en vigueur (Purvis et al., 1994). La relation entre l'Indice d'Agressivité et l'amplitude du dimorph de longueur et de largeur de l'antenne sera testée par régressions forcées par l'origine. La valeur de pente est alors assimilée à la vraie relation entre les 2 variables en l'absence d'effets phylogénétiques (Pagel, 1993). Pour ce qui est de la longueur d'antenne, le dimorphisme sexuel est négativement corrélé à l'utilisation des antennes aux combats (r = -0.90, F[1,3] = 12.14, p < 0.05). L'absence de relation positive entre ces 2 variables est un bon argument pour penser que la longueur d'antenne chez les mâles n'a pas été sélectionnée sous la pression des combats antennaires. Les résultats concernant la largeur de l'antenne au niveau du basis vont également dans ce sens (n = 4, r = -0.72, p = 0.17). Les résultats sont présentés graphiquement Figure 32 en ce qui concerne la longueur d'antenne.
les 18 16 a 0.1 0.2 0.3 0.4 0.5 0.6 0.7 IAg dimorphisme (% en faveur des mâles) 2 1 b 0 -1 -2 -3 -4 -5 -6 -7 0.00 0.04 0.08 0.12 0.16 0.20 0.24 0.28 IAg
Figure 32 : Dimorphisme sexuel antennaire de longueur en relation avec l'indice d'agressivité des mâles. a. données brutes (les points correspondent aux espèces), b. données corrigées par la phylogénie (les points correspondent aux contrastes linéaires indépendants). Les 7 espèces étudiées ici présentent toutes un dimorphisme sexuel antennaire en faveur des mâles (bien que non significatif pour P. cingendus). En accord avec Vandel (1960, 1962), il semble que les mâles d'Oniscidea présentent des antennes plus développées que les femelles. Nous avons montré ici que le 86 Chapitre 2 dimorphisme antennaire ne peut être attribué à une pression de sélection sur l'antenne des mâles par le biais de combats antennaires. Deux autres hypothèses alternatives peuvent être avancées pour expliquer ce dimorphisme : i) une sélection d'ordre mécanique via leur utilisation dans la séquence sexuelle, ii) une sélection d'ordre chémo-réceptrice via leur utilisation dans la recherche du partenaire sexuel : i) La longueur d'antenne chez les mâles peut avoir évolué en réponse à la nécessité de stimuler et maintenir la femelle durant les phases précopulatoire et copulatoire (nous verrons dans le chapitre suivant que la séquence sexuelle peut être assimilée à un conflit inter-sexe). Chez de nombreux arthropodes en effet, l'antenne est utilisée par les mâles durant l'accouplement pour s'agripper à la femelle et stimuler sa réceptivité (Mason, 1980 ; Mc Lain, 1981). Chez certains crustacés aquatiques l'antenne est clairement un organe qui sert à monopoliser la femelle (de nombreux exemples sont donnés dans Legrand & Juchault, 1994). Cependant, l'antenne possède alors des structures annexes telles que des soies, brosses ou crochets qui contribuent à la fonction (Belk, 1984), ce qui n'est absolument pas le cas chez les Oniscidea. Chez eux la monopolisation de la femelle est assurée par les 2 premiers péréiopodes antérieurs ainsi que la septième paire. Ces appendices sont en effet nettement dimorphiques et présentent chez les mâles de très nombreuses soies pour maintenir la femelle (Vandel, 1960 ; Legrand & Juchault, 1994). Qui plus est, chez certaines espèces d'Oniscidea comme Porcellionides pruinosus et Oniscus asellus, les mâles n'utilisent pas leurs antennes durant l'accouplement (elles sont repliées en arrière, observations personnelles), et il existe pourtant chez ces espèces un dimorphisme au niveau de l'antenne. Il semble donc raisonnable d'affirmer que ni une fonction de stimulation ni une fonction de monopolisation ne peut rendre compte du dimorphisme sexuel observé chez les Oniscidea. ii) La longueur d'antenne chez les mâles peut avoir évolué en réponse à leur importance dans la localisation et la reconnaissance des femelles. Cette hypothèse est pour le moins appuyée par le fait que la différence mâle-femelle dans la longueur d'antenne implique souvent les segments distaux du flagelle (F2 ou F3 suivant les espèces), qui sont ceux qui portent l'organe apical de chémo-réception. En fait, nous avons tout un faisceau d'arguments pour penser que les mâles d'Oniscidea entrent en compétition au niveau de la recherche active des femelles réceptives (scramble competition, Alcock, 1980). Cette forme de compétition indirecte pour l'accouplement est probablement très répandue chez les arthropodes, mais rarement démontrée. Elle est supposée expliquer, du moins en partie, pourquoi les mâles présentent des organes sensoriels et locomoteurs plus développés que les femelles (Mason, 1980 ; Thornhill & Alcock, 1983 ; Andersson, 1994). Chez l'amphipode Gammarus duebeni, Dahl et al. (1970) met en relation le dimorphisme sexuel antennaire en faveur des mâles avec la fonction de chémo-réception des phéromones sexuelles femelles. Les arguments en faveur d'une compétition par scramble
Nous avons voulu comparer en laboratoire l'activité locomotrice des mâles et des femelles. Les données présentées ci dessous portent sur l'espèce Armadillidium vulgare ont été acquises lors de TP d'éthologie de la maîtrise Biologie de Populations et des Ecosystèmes (promotion 1998/1999). Des mâles (n = 35) et des femelles (n = 40) sont introduit isolément au sein d'une boîte de Pétri. Leur activité locomotrice (activité/inactivité) est enregistrée toutes les 2 minutes sur une période de 120 minutes. La dynamique d'activité des mâles et femelles est illustrée
Figure 33. 70 mâles femelles % d'individus en locomotion 60
50 40 30 20 10 0 0 10 20 30 40 50 60 70 80 90 100 110
120 temps (min) Figure 33 : Dynamique de l'activité locomotrice en fonction du sexe. Les courbes sont ajustées selon la méthode des moindres carrés. Au cours de la période suivie, les mâles présentent à tout moment une activité locomotrice supérieure à celle des femelles. En cumulant sur les 120 minutes le nombre d'occurrence où les individus sont en phase d'activité, on obtient un indice d'activité moyen de 20.91±15.07 pour les mâles et de 10.85±9.37 pour les femelles. La différence est hautement significative (U = 407.0, z = 3.11, p < 0.01). Des données de terrain, toujours sur Armadillidium vulgare, viennent confirmer ces résultats de laboratoire. Les résultats présentés ci-dessous ont été obtenus en mai 1994 par Yves Caubet (données inédites), sur un site d'échantillonnage à proximité de Poitiers. Sur un mètre carré de surface tous les individus ont été prélevés, puis sexés et conservés quelques temps au laboratoire. Le rapport des sexes était 88 Chapitre 2 de 78 mâles pour 85 femelles (sex-ratio = 0.48). Après un délai de 24 heures, une seconde collecte sur le même quadra, révèle un rapport des sexes inversé avec 39 mâles pour 18 femelles (sex-ratio = 0.68). La différence de sex-ratio entre les 2 collectes est statistiquement significative (χ2 = 4.55, p < 0.05), et traduit ainsi une capacité de locomotion et/ou de colonisation plus importante chez les mâles. Ces données ayant été récoltées en période de reproduction, il est possible de les interpréter comme le reflet d'une recherche active des femelles par les mâles. En fait dans la littérature sur les Oniscidea, il existe quelques études qui font état, d'une manière plus ou moins directe, d'une plus grande activité des mâles en période de reproduction. Ainsi, certains auteurs associent un coût à la reproduction des mâles en termes d'énergie investie et de risque de prédation (Erhard, 1992 ; Zimmer & Brauckmann, 1997 C. Conclusion
L'agressivité entre mâles n'est pas une caractéristique propre à tous les Oniscidea. Certaines espèces ne montrent aucune agressivité même en condition de confinement artificiel (données présentées, Mead 1973, chez Tylos et Helleria). La majorité des conflits mâle-mâle ont à ce jour été décrit chez les Porcellionidae (données présentées, Mead, 1973 ; Linsenmair, 1984). Pour ces espèces, l'agressivité entre mâles ne semble pas devoir être reliée à une compétition directe pour l'accès aux femelles. Mead (1973) chez Porcellionides sexfasciatus, signale que les mâles sont également agressifs même en dehors de la période de reproduction. Les connaissances acquises sur d'autres groupes d'invertébrés ainsi que les modèles théoriques laissent supposer que l'adoption d'une stratégie agressive dépend des coûts et bénéfices associés à ce comportement (Hammerstein, 1981 ; Pusey & Packer, 1997). Les conditions écologiques locales sont supposées orienter la stratégie la plus efficace. Ainsi, nous l'avons dit, lorsque la densité de population est importante il devient impossible pour un mâle donné de défendre une ressource (Hall, 1994). L'exception est cependant donnée par les représentants du genre Hemilepistus et de certains Porcellio (Schneider, 1971 ; Shachak, 1980 ; Linsenmair, 1984). Chez ces espèces des terriers sont creusés puis défendus par un couple monogame. Les auteurs avancent que cette stratégie a été adoptée en réponse à des conditions écologiques particulièrement défavorables pour des Oniscidea (milieux désertiques).
Chapitre 3 LES CONFLITS INTER-SEXES A. Description de la séquence sexuelle A.1. Les différentes phases de séquence sexuelle A.2. Remarques B
Rencontres dyadiques mâle-femelle B.1. Protocole B.2. Probabilité d'accouplement B.3. Durée des différentes phases de la séquence sexuelle C. Rencontres de groupe en condition semi-naturelle C.1. Protocole C.2. Probabilités d'appariement et d'accouplement C.3. Durée des différentes phases de la séquence sexuelle C.4. Appariements et accouplements par taille D. E.
| 49,543
|
56/tel.archives-ouvertes.fr-tel-01619680-document.txt_9
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 7,438
| 13,174
|
Chapitre 6
L'opportunité qu'orent des statistiques log-normales de traiter des observations d'ordres de grandeur signicativement diérents est un grand avantage. Le défaut de cette approche est toutefois la trop grande précision implicitement associée aux observations quasi-nulles, dont la abilité peut être remise en question (par exemple, Farchi et al., 2016). Plusieurs solutions sont envisageables pour mitiger cet eet. Premièrement, on peut se contenter de ne considérer que les observations qui sont au-dessus d'un certain seuil yt. Ce seuil peut être choisi comme valant par exemple la précision de mesure de radioactivité atmosphérique ou l'activité de fond pour des mesures d'activités déposées. Une solution plus élégante consiste à modier la distribution log-normale et l'amender pour les petites valeurs d'observation. Par exemple, on peut considérer la distribution suivante pour les observations, p(y) ∝ e PP ln|ζ 0 (yp )|− 21 kζ(y)−ζ(μ)k2R p=1 ζ : R+ → R s'applique composante dénir suivant ζ(yp ) = ln yp si yp ≥ yt, (6.6) y et μ, et ζ 0 est sa dérivée. ζ(yp ) = ln yt − 1 + yp /yt si 0 ≤ yp ≤ yt. La où la fonction par composante à On peut la et fonction a été choisie de telle sorte à ce qu'elle ait un comportement log-normal pour la majorité des observations (yp diérentiable en yt. ≥ yt ) et qu'elle soit linéaire pour les faibles valeurs, en plus d'être continue et Cela tempère l'impact des observations de faible concentration. Une troisième possibilité intermédiaire est de choisir simplement
yp 7→ ζ(yp ) = ln(yp + yt ). Cette dernière a le mérite de se passer d'un test conditionnel, de faciliter le calcul analytique des vraisemblances et de leurs dérivées, et d'éviter de se défausser de certaines observations. Nous avons vérié que les trois solutions conduisent à des inversions similaires quand yt est choisi de telle sorte à avoir un sens physique. Par conséquent, nous avons sélectionné la dernière solution. La valeur du seuil est xée à yt = 10−3 Bq.m−3 pour l'étude de l'accident de la CNPP et à yt = 10−1 Bq.m−3 pour celui de la FDNPP. Enn, à titre de comparaison, nous considérerons également le cas d'observations gaussiennes, c'est-à-dire telle que y = μ+ε log-normales. avec ε ∼ N (0, R), tout en gardant les erreurs sur l'ébauche
6.3.2 Solution bayésienne théorique
La distribution des statistiques des erreurs a priori pour le terme source et les observations étant choisie, nous pouvons désormais présenter les principes de l'inversion appliquée dans ce chapitre. Le problème inverse est résolu formellement par la formule de Bayes, qui s'écrit pour deux variables z et y, p(z|y) = La pdf p(z) p(y|z) p(y|z)p(z), p(y) Z où p(y) = dz p(y|z)p(z). (6.7) RM est la vraisemblance des observations, issue des erreurs d'observation a priori ; la pdf est l'ébauche du terme source ; et la pdf p(y), constante selon z, est l'évidence. Les observations (non bruitées) et le terme source sont reliés par la résolvante H du modèle de chimie-transport μ = Hx = Hxez , où H (6.8) est souvent appelée matrice jacobienne du modèle et dénit la relation source-récepteur. Notons que le modèle physique est ici supposé linéaire. L'opposé du logarithme de la vraisemblance de z, étant donné l'ensemble des paramètres obtenu par l'application de la loi de Bayes : L(z; θ) = θ ≡ x, B, R, c'est-à-dire L(z; θ) = − ln p(z|y, θ), 1 1 kln y − ln Hxez k2R + kzk2B + ξ(θ), 2 2 est (6.9) 6.3.
Modélisation inverse où ξ(θ) 137 représente les termes qui ne dépendent pas de 1 1 z, avec B 2 z = B2e L(z; θ)
Quand nous cherchons le maximum a z, il est préférable d'appliquer la matrice racine carrée de B, qui produit une fonction posteriori (MAP), c'est-à-dire le minimum de le changement de variable z. en fonction de de coût mieux conditionnée : 2 1 1 e e z; θ) = 1 ln y − ln HxeB 2 ez L(e + ke zk2 + ξ(θ), (6.10) 2 2 R √ vT v. Ce préconditionnement est nécessaire quand les valeurs propres où on utilise la norme kvk = de B approchent 0 et impactent la convergence de la minimisation de (6.9). Ceci étant, par la suite, les développements théoriques utiliseront la formulation de (6.9), plus conventionnelle. 6.3.3 Les solutions par Bayes hiérarchique et Bayes empirique
Si les statistiques des erreurs sont eectivement log-normales et que les paramètres θ sont pré- cis, la méthode présentée plus haut devrait fournir une estimation able de la pdf a posteriori du problème inverse. Cependant, θ, souvent appelés hyperparamètres, sont incertains, tout particuliè- rement en ce qui concerne l'inversion de sources de polluants. En statistique bayésienne, il est par conséquent conseillé de considérer θ comme un vecteur aléatoire et de l'incorporer dans la formule de Bayes habituelle p(x|y) = p(y|x)p(x), p(y) (6.11) ce qui donne la hiérarchie d'inférences suivante : p(x, θ|y) = où p(y|x, θ) p(y|x, θ)p(x, θ) p(y|x, θ)p(x|θ)p(θ) =, p(y) p(y) est la vraisemblance des observations conditionnée par x et (6.12) θ et p(θ) est l'ébauche de ces hyperparamètres. Il s'agit de l'approche hiérarchique bayésienne complète (BC). La pdf a p(x|y), sans marginalisation sur θ posteriori initiale une référence aux hyperparamètres θ, peut ensuite être obtenue comme Z p(x|y) = dθ p(x, θ|y). Une approximation consiste à faire apparaître p(x|y, θ) (6.13) dans cette marginalisation Z p(x|y) = dθ p(x|y, θ)p(θ|y) (6.14) p(θ|y) est piquée autour d'une valeur θ? et concentrée sur un voisinage p(x|y, θ) est faible. Cela am ène à une marginalisation approchée Z p(x|y) ≈ p(x|y, θ? ) dθ p(θ|y) = p(x|y, θ? ). et supposer que la variation de de θ? où (6.15)
Cette approche est nommée Bayes empirique (BE). Même si cette démarche n'est qu'approchée, elle peut représenter avec délité la hiérarchie bayésienne, à supposer que piquée autour de θ? p(θ|y) soit susamment. Elle est bien connue en statistiques environnementales et a été prônée dans des revues en géosciences (Michalak et al., 2005; Wu et al., 2013; Bocquet, 2015). Elle a été utilisée en modélisation inverse pour le terme source de polluants dangereux dans Davoine et Bocquet (2007); Winiarek et al., et al. (2012, 2014) et en chimie atmosphérique (par exemple, Koohkan et al., 2013; Berchet 2013).
Chapitre 6
Même si elle est répandue en statistiques environnementales, l'approche hiérarchique a rarement été utilisée en géosciences avec des modèles complexes car elle nécessite d'échantillonner selon une succession de pdf, ce qui n'est pas une tâche numériquement aisée. Entre autres exceptions, elle a été utilisée en assimilation de données pour mieux tenir compte des incertitudes dans les méthodes de ltre de Kalman d'ensemble (Bocquet, 2011). Il s'agit de l'EnKF-N décrit à la section 2.4.5.2. On peut citer également Ganesan et al. (2014) qui l'a utilisée dans l'inversion de gaz à eet de serre. Étant donné que le nombre de degrés de liberté d'une source ponctuelle avec quelques taux d'émissions est nettement moindre, l'approche bayésienne complète a été rendue possible pour la modélisation inverse du terme source de polluants dangereux dans Delle Monache et al. (2008); Yee (2008). Enn, nous précisons qu'une compara ison plus approfondie entre les inférences bayésiennes hiérarchiques et empiriques est présentée dans Malinverno et Briggs (2004). 6.3.4 Estimation des maximisation hyperparamètres avec l'algorithme espérance-
Dans le cadre du BE, plusieurs estimateurs peuvent être utilisés pour les hyperparamètres, comme le maximum de vraisemblance, la validation croisée généralisée, la L-curve, l'estimateur de risque prédictif sans biais, etc. (voir, par exemple, Vogel, 2002; Hansen, 2010; Doicu et al., 2010, pour des monographies avancées sur le sujet). La plupart d'entre eux ont été utilisés dans les études de modélisation inverse déjà mentionnées. Étant donnée la justication du BE fournie plus haut, le maximum de vraisemblance est souvent employé. Cependant, en l'absence d'expression analytique pour cet estimateur à l'exception du cas de statistiques gaussiennes, sa solution requièrt des algorithmes numériques non-triviaux. Une approche rigoureuse, bien connue dans le domaine des statistiques mais assez peu dans celui de l'assimilation de données en géophysique, est celle de l'espérance-maximisation (EM) (Dempster et al., 1977), qui sera utilisée dans ce chapitre pour estimer les hyperparamètres. Le schéma est intéressant car il est facile à implémenter. Son fondement et sa justication sont en revanche sophistiqués, ce qui a pu empêcher dans une certaine mesure sa diusion aux géosciences. L'algorithme EM est censé trouver le maximum local de la vraisemblance l(θ) ≡ p(y|θ) = quand p(y|θ) Z dx p(y|x, θ)p(x|θ), (6.16) RM n'est pas nécessairement connue analytiquement car l'intégrale n'est pas calculable. L'algorithme EM est itératif, jusqu'à convergence, et alterne entre les deux étapes : Étape E (espérance) i, on e la fonction l'espérance pour θ (i) à l'itération x|y, θ (i) signie que : Étant donnée la valeur estimée des paramètres L(θ|θ (i) ) = Ex|y,θ(i) [ln p(x, y|θ)], E est prise sur la distribution de x sachant y où l'indice mais en supposant la valeur xe θ (i) θ. Étape M (maximisation) cherchons son maximum θ L(θ|θ (i) ) = argmax L(θ|θ (i) ). : Étant donné (i+1) calculée à l'étape d'espérance, nous θ Pour une condition initiale donnée θ0, on répète les itérations jusqu'à convergence des paramètres. La convergence de l'algorithme EM vers le maximum local dont le bassin d'attraction contient θ0 est garantie. Cet algorithme est connu pour être ecace pour l'estimation de paramètres de modèles de mélange gaussien (voir par exemple, Bishop, 2006), qui sont souvent utilisés en assimilation de données non-linéaire. Cependant, une expression analytique de L(θ|θ (i) ) n'est bien souvent pas disponible, ce qui est le cas de nôtre application. Une solution consiste à estimer L(θ|θ (i) ) par une 6.3. Modélisation inverse 139 N méthode de Monte-Carlo (Wei et Tanner, 1990), c'est-à-dire obtenir de probabilité (i) p(x|y, θ ), échantillons de la densité L(θ|θ (i) ) ≈ N 1 X ln p(xn(i), y|θ (i) ), N (6.17) n=1 (i) xn ∼ x|y, θ (i). En géosciences, cette approche a été mise en avant par Ueno et Nakamura (2014); Tandeo et al. (2015); Ueno et Nakamura (2016), où les matrices d'erreur d'observation, d'ébauche où et de modèle sont estimées. Leurs modèles physiques sont non-linéaires (contrairement au notre qui est linéaire) et leurs statistiques d'erreur sont gaussiennes, ou un mélange de gaussiennes, (par opposition à log-normales dans notre cas ). Cela a de plus été utilisé avec succès par Pulido et al. (2017). θ = R, B et considérons R(i), B(i) de R, B. Nous voulons donc estimer la fonctionnelle suivante, redénie comme deux fois l'opposé du L précédent : Ici, nous appliquons l'algorithme EM pour estimer les hyperparamètres x comme donné et xé. À l'itération i, nous avons donc les estimations
L(R,B|R(i), B(i) ) = −2Ez|y,R(i),B(i) [ln p(z, y|R, B)] = − 2Ez|y,R(i),B(i) [ln p(y|z, R, B) + ln p(z|R, B)] i h i h =Ez|y,R(i),B(i) kln y − ln Hxez k2R + Ez|y,R(i),B(i) kzk2B + ln |R| + ln |B| + (M + P ) ln(2π), (6.18)
qui ne peut pas totalement être calculée analytiquement. Nous allons donc, comme annoncé, tirer (i) (i) échantillons de la distribution a posteriori étant donnés R, B, c'est-à-dire, (i) zn ∼ N z|y, R(i), B(i). Un tel échantillonnage n'est pas trivial et fera l'objet de la section 6.4. Chacune des méthodes d'échantillonnage qui y sont proposées peut fonctionner. Notons cependant que pour atteindre la convergence de l'algorithme EM, le nombre d'échantillons est nettement inférieur à ceux requis par l'UQ exposée dans la section 6.4. Dénissons de manière empirique les moments d'ordre 2 S(i) o N (i) (i) T 1 X = ln y − ln Hxez
n ln y − ln Hxezn, N (i) Sb = 1 N n=1 N X T z(i) zn(i). n (6.20) n=1
Avec ces dénitions, on peut simplier l'expression de (6.19) L en (i) L(R,B|R(i), B(i) ) ≈ Tr
R
−1 S(i) +
ln |R|
+
Tr B−1 Sb
o L'étape de maximisation consiste à minimiser
+
ln
|B| + (M +
P
) ln(2π). L(R, B|R(i), B(i) ) selon R et B (6.21) en annulant les gradients −1 ∇R L(R, B|R(i), B(i) ) = R−1 (R − S(i) o )R, (6.22) ∇B L(R, B|R, B ) = B (6.23) (i) ce qui donne les estimations R(i+1), B(i+1) (i) de R, B R(i+1) = S(i) o, −1 (B − (i) Sb )B−1, à l'itération i+1 (i) B(i+1) = Sb. (6.24)
Chapitre 6
Deux formes simples de R B et sont considérées. Dans un premier temps, nous les choisis- sons proportionnelles à la matrice identité : R = rIP dans RP ×P et B = bIM dans RM ×M. Même si cette approximation est quelque peu irréaliste, elle fournit un ordre de grandeur pour ces covariances. Nous nommerons cette conguration pour les hyperparamètres Du (pour diagonal, paramètre unique). Dans ce cas, les équations (6.19) et (6.20) se simplient en équations scalaires s(i) o = (i) sb = N (i) 1 X ln y − ln Hxezn NP 1 NM n=1 N X z(i) n 2 2, (6.25), (6.26) n=1 et l'équation (6.24) devient r(i+1) = s(i) o, (i) b(i+1) = sb. (6.27) Dans un second temps, nous continuons de considérer une forme diagonale pour les matrices de covariances, cette fois-ci en prenant la conguration R = rIP et B = Diag(b1, b2,..., bM ). Dans cette conguration, nous choisissons autant de paramètres de variance que de taux d'émission, étant donné que les diérents taux d'émission et leurs statistiques d'erreur sont vraisemblablement indépendants ou assez peu corrélés en temps. Nous nommerons cette conguration des hyperparamètres Dm (pour diagonal, paramètres multiples). Dans ce cas, les itérations sur (i) sb,m = N 1 X (i) 2 zn,m, N B sont modiées en (i) b(i+1) = sb,m. m (6.28) n=1 pour m = 1,..., M. Notons que l'algorithme EM peut aussi s'appliquer au cas où les obser- vations ont des erreurs gaussiennes de manière évidente : l'équation (6.25) deviendrait 1 NP PN n=1 y− (i) Hxezn 2 (i) so =.
6.3.5 A priori sur les hyperparamètres
Dans les cas réels étudiés dans ce chapitre, avec des jeux d'observations limités, les hyperparamètres sont souvent assez peu contraints. Il peut alors être important de dénir ce à quoi correspond l'a priori sur ces hyperparamètres. Comme il a été vu dans la section 6.3.4, l'algorithme EM fournit un maximum de p(y|θ), la vraisemblance des observations. Cependant, dans l'approche bayésienne empirique, nous nous intéressons plutôt au maximum de p(θ|y) = p(y|θ)p(θ)/p(y). Ainsi, appli- quer l'EM tel qu'il a été présenté jusqu'ici reviendrait à supposer une distribution uniforme pour p(θ). On pourrait préférer une pdf moins informative, telle l'a priori de Jereys (Jereys, 1961). Pour les deux formes supposées de r, b ou les bm R et B à la section 6.3.4, cet a priori sur les hyperparamètres s'écrit √ p(r) ∝ 1/ r, √ p(b) ∝ 1/ b, p(bm ) ∝ 1/ p bm. (6.29) Dans ce cas, il est aisé de vérier que les équations (6.25), (6.26) et (6.28) doivent être modiées 6.3.
Tableau
6.2 Valeurs clés de l'inversion : les activités totales des termes sources inversés (TRRAs) r? sont en PBq ; les paramètres Bq2.m−6 pour le Dm, b? correspond sont en cas gaussien ; toutes les autres valeurs? à la moyenne de tous les bm. Le biais −3 (en Bq.m ) est la diérence moyenne entre les observations et les observations simulées ; ρ est le sont sans unité. Dans la conguration coecient de corrélation de Pearson ; la NMSE est l'erreur moyenne normalisée (sans unité).
CNPP FDNPP Du Dm Du Dm TRRA 82.5 83.5 12.3 22.4 Gaussien b? biais r? 1.51 1.50 564 549 0.49 0.71 1.69 1.64 0.05 0.05 2.85 2.70 ρ 0.71 0.71 0.57 0.58 nmse TRRA 1.81 1.81 17.4 16.4 82.0 87.2 24.1 20.4 r? 1.32 1.35 2.02 2.05 Log-normal b?
biais
3.99 2.26
5.15
2.64 0.05 0.05 0.61 0.42 ρ 0.70 0.70 0.21 0.22 nmse 1.87 1.86 37.0 36.8 en N X (i) 1 ln y − ln Hxezn N (P + 1) s(i) o = n=1 N X 1 N (M + 1) (i) sb = z(i) n 2 2, (6.30), (6.31) n=1 N 1 X (i) 2 zn,m, 2N (i) sb,m = (6.32) n=1 pour m = 1,..., M. P → P + 1, M → M + 1 et N → 2N dans ces espérances empiriques proviennent de l'a priori de Jereys. Dans le reste du chapitre, nous optons pour cet a priori non-informatif dès que p(θ) est utilisé, ainsi que dans cette extension de la méthode EM. 6.3.6 Application aux accidents de Tchernobyl et Fukushima Daiichi
Avec ce premier jeu d'illustrations, nous appliquons l'approche BE développée au cours de cette section pour estimer le terme source de césium-137 des CNPP et FDNPP, à l'aide de la méthode EM (utilisant l'a priori de Jereys) pour estimer les hyperparamètres. Pour les deux cas CNPP et FDNPP, nous implémentons les congurations Du et Dm pour les hyperparamètres. Les termes sources inversés sont montrés sur la Fig. 6.1. Les statistiques gaussiennes et log-normales ont été utilisées pour les observations. Dans les deux cas, les taux d'émission correspondent à des durées de 6 heures. Il y a ainsi 40 taux d'émission (s'étalant sur 10 jours) et 80 taux d'émission (s'étalant sur 20 jours) respectivement dans les cas de la CNPP et la FDNPP. Pour le cas de la CNPP, l'ébauche est le terme source d'UNSCEAR (United Nations, 2000), tandis que pour la FDNPP, elle est choisie constante et telle que la masse totale émise soit de 1 PBq. Le tableau 6.2 donne les valeurs clés des hyperparamètres optimaux, les quantités d'activité totales reconstruites et plusieurs indicateurs statistiques associés à la meilleure estimation. Le nombre d'échantillons pour l'étape d'espérance de la méthode EM est N = 1000. Ces échantillons sont obtenus avec un RTO naïf, qui sera introduit dans la section 6.4 et qui n'est qu'une approximation. Nous remarquons que la convergence de l'EM pour r ne nécessite que quelques itérations tandis que la convergence pour b et les bm n'en nécessite que quelques dizaines tout au plus. Dans le cas de la CNPP, les statistiques d'erreur d'observation gaussiennes et log-normales conduisent à des résultats similaires et en particulier la même activité totale du terme source inversé (TRRA, pour total retrieved released activity en anglais). Les résultats sont en accord avec l'ordre
1015 1014 1013 1012 (a) 0 1 2 3 4 5 6 7 8 Time [day] from 25/04/1986 21:30 UTC 9 CNPP source term (137Cs) 1016 Release rate [Bq/h] Release rate [Bq/h] 1016 1015 1014 1013 1012 10 lognormal retrieval Gaussian retrieval UNSCEAR (b) 0 1 2 3 4 5 7 8 9 10 FDNPP source term (137Cs) 1015 lognormal retrieval Gaussian retrieval fist guess Katata Terada 1014 Release rate [Bq/h] 6 Time [day] from 25/04/1986 21:30 UTC 1013 1012 (c) 1011 11/03 13/03 15/03 17/03 19/03 21/03 Date [day] 23/03 25/03 27/03 31/03 FDNPP source term (137Cs) 1015 lognormal retrieval Gaussian retrieval first guess Katata Terada 1014 Release rate [Bq/h] 29/03 1013 1012 (d) 1011 11/03 13/03
Figure 6.1
15/03 17/03 19/03 21/03 Date [day] 23/03 25/03 27/03 29/03 31/0
3 Terme source de césium-137 reconstruit pour le cas de l'accident de la CNPP (images du haut, a et b) et pour l'accident de la FDNPP (images du bas, c et d). Les
a et c utilisent la conguration Du tandis que les images b et d utilisent la conguration Dm. Les statistiques gaussiennes aussi bien que log-normales sont considérées. Le terme source d'UNSCEAR est également tracé pour le cas de la CNPP. L'ébauche ainsi que les termes sources de Katata et Terada sont également tracés dans le cas de la FDNPP à titre de comparaison. Figure tirée de Liu et al. (2017, soumis).
6.3. Modélisation inverse 143 70−90 PBq admis pour le césium-137 (Talerko, 2005) et ceux obtenus par modélisation? inverse dans Davoine et Bocquet (2007); Bocquet (2012). Le paramètre estimé
r nous indique un √
−3? écart type de l'erreur d'observation additive
de
r ≈ 1.23 Bq.m (
cas
gaussien/Du ) et une erreur √? relative typique
de
r
≈ 1.14
(
cas log-
normal
/Du
).
Nous rappelons que les erreurs d'observation? comptabilisent partiellement l'erreur modèle, y compris les erreurs de représentativité. Ainsi, r est de grandeur un indicateur important. Le cas Dm choisi pour B impose de xer plusieurs des bm à 0 ou une très faible valeur. Comme on pouvait s'y attendre, cela arrive pour des taux d'émission qui ne sont pas susamment informés par les observations. Cela revient à faire une conance aveugle à l'ébauche sur ces intervalles de temps. L'écart entre le cas gaussien et log-normal est plus petit dans la conguration la Du. Cela peut être dû aux degrés de liberté supplémentaires dans les bm, Dm que dans qui apportent plus de exibilité pour se rabattre sur l'ébauche durant plusieurs périodes en l'absence d'information susante. Dans le cas FDNPP, les statistiques d'erreur d'observation gaussiennes et log-normales donnent des résultats similaires qualitativement mais quantitativement diérents. La TRRA avec l'hypothèse log-normale et la conguration Du est deux fois plus importante que celle obtenue avec l'hypothèse gaussienne. Cela est dû à des observations signicativement élevées et faibles où les mesures et le modèle sont en désaccord : les deux approche statistiques apportent des réponses diérentes puisque nous savons qu'elles traitent diéremment ces valeurs élevées et faibles de concentration. Les TRRAs gaussiennes et log-normales sont plus proches l'une de l'autre dans la conguration Dm. Ces résultats sont dans la fourchette 1 − 3 PBq, en accord avec les estimations passées (Chino et al., 2011; Winiarek et al., 2012; Terada et al., 2012; Saunier et al., 2013; Winiarek et al., 2014;? Katata et al., 2015). Le paramètre estimé r nous indique un écart type de l'erreur d'observation √ √ additive de r? ≈ 24 Bq.m−3 (cas gaussien/Du ) et une erreur relative typique de r? ≈ 1.41 (cas log-normal/Du ). Les erreurs additives sont nettement plus importantes que dans le cas de la CNPP, car les stations de mesure utilisées sont dans un rayon de 200 km de la FDNPP, alors que dans le cas de la CNPP, elles se situaient à plusieurs milliers de kilomètres de la centrale, conduisant à des concentrations d'activité mesurées plusieurs ordres de grandeur plus faibles. Cependant, les erreurs multiplicatives montrent que, indépendamment de leur valeur absolue, les erreurs d'observation sont plus grandes que dans le cas de la CNPP. Cela trahit les problèmes signicatifs d'erreur modèle liés à la modélisation numérique de l'accident de la FDNPP. Les inversions fondées sur les congurations Du et Dm montrent des diérences notables entre le 23 et le 31 mars (dernière semaine de la période d'étude). Tandis que la conguration conguration Du Dm xe les taux reconstruits à l'ébauche sur cette période, la conduit à la reconstruction de plusieurs pics d'émission, certains d'entre eux (25 mars) en cohérence avec Winiarek et al. (2014), d'autres (29-31 mars) en accord avec Katata? (2015). En eet, le b optimal dans la conguration Du et al. étant plus important et étant applicable à toute la durée de l'inversion, il intervient de façon permissive dans la dernière semaine. Cela contraste avec la conguration Dm qui xe les bm à de petites valeurs sur la dernière semaine, considérant probablement les informations comme trop peu ables. Comme on peut le voir sur le tableau 6.2, pour les deux cas de la CNPP et la FDNPP ainsi que les congurations Du et Dm, le b? optimal et la moyenne des b?m optimaux du cas log-normal sont toujours nettement supérieurs à ceux du cas gaussien. Cela peut être expliqué par le fait que l'erreur d'observation gaussienne est signicativement plus contraignante que les statistiques log-normales, de telle sorte que le terme d'ébauche devrait également l'être (avec des b? et b?m plus petits) s'il existe un équilibre entre les observations et l'ébauche dans la fonction de coût. Enn, le tableau 6.2 présente les indicateurs statistiques pour les activités et les simulations des panaches reconstruits en utilisant les hyperparamètres optimaux. Dans le cas de la CNPP, ces 144 Chapitre 6 indicateurs sont en parfait accord avec ceux obtenus dans Bocquet (2012, 2015). Les statistiques gaussiennes et log-normales conduisent à des indicateurs statistiques quasiment identiques. Le cas de la FDNPP est diérent, les statistiques gaussiennes produisant un grand biais mais une bonne corrélation de Pearson, tandis que les statistiques log-normales conduisent à un biais bien plus équilibré mais une corrélation bien moindre. Cela indique à nouveau les dicultés de la modélisation de la dispersion atmosphérique de l'accident de la FDNPP. 6.4 Quantication des incertitudes
À terme, nous sommes intéressés par l'estimation rigoureuse de la distribution a posteriori p(x|y) ou de certains de ses moments statistiques. Dans l'approche BC, la quantication des incertitudes est permise par l'échantillonnage hiérarchique d'un ensemble d'hyperparamètres n = 1,..., N. De ces nombreux échantillons xn, θ n, p(x|y) et quantier l'incertitude des estimations. avec de θn et des variables xn, on peut estimer les moments empiriques Si l'approche BC est trop coûteuse numériquement, on peut accessoirement recourir à l'approche BE, estimer θ? et ainsi réduire la dimension du problème. Il reste nécessaire de savoir échantillonner rigoureusement selon p(x|y, θ? ). Cette tâche est le but de cette section. Nous présentons, testons et comparons quatre méthodes.
6.4.1 Échantillonnage préférentiel fondé sur l'approximation de Laplace
La première méthode s'appuie sur le principe d'échantillonnage préférentiel (par exemple, MacKay, 2003). On considère x 7→ φ(x) une fonction de test valide du vecteur de contrôle x à valeur dans un espace vectoriel et dénissons l'espérance a posteriori ξφ ≡ Ex|y [φ] = où l'indice x|y signie que l'espérance E Z dx p(x|y)φ(x), p(x|y). p(x|y). Il est est prise sur la distribution a posteriori de pdf q(x) que l'on juge plus facile à échantillonner que q(x) soit similaire à p(x|y) mais la seule condition mathématique de q(x) inclut celui de p(x|y). Nous avons alors
Z p(x|y) ξφ = dx q(x) φ(x). q(x) RM
Nous introduisons une pdf souhaitable que que le support (6.33) RM nécessaire est (6.34) Étant donnée cette condition, l'intégrale peut être dénie de manière équivalente sur le domaine où xn q(x) 6= 0. An de calculer numériquement de la pdf préférentielle q(x) ξφ, l'équation (6.34) suggère de tirer un échantillon et d'estimer PN ξφ ≈ n=1 ωn φ(xn ) PN n=1 ωn où ωn = p(xn |y). q(xn ) (6.35) Nous souhaitons implémenter cette stratégie d'échantillonnage préférentiel pour calculer la distribution a posteriori p(z|y) ∝ p(y|z)p(z) ∝ e−L(z) où L(z) est dénie à l'équation (6.9). Un choix simple de distribution préférentielle pourrait être l'a priori (6.35) sont alors simplement ωn = p(y|zn ). q(z) ≡ p(z). Les poids de l'équation Cependant, cet échantillonnage s'est avéré inecace au-delà d'un terme source de quelques variables pour notre application, car cette distribution est trop éloignée de celle que l'on cherche à estimer. Ainsi, nous avons utilisé une pdf préférentielle 6.4. Quantication des incertitudes 145 plus sophistiquée, fournie par l'approximation de Laplace de p(z|y). Il s'agit simplement de la distribution gaussienne dénie selon 1 q(z) ∝ e− 2 kz−z?k G−1 (6.36) z? = argmin L(z) et [G]ml = ∂zm ∂zl L(z)|z?. Puisque q est une distribution gaussienne riée, un échantillon xn peut être tiré selon elle en tirant η n ∼ N (0, IM ) et en choisissant où multiva- 1 zn = z? + G− 2 η n. zn Le poids attaché à est 1 ωn = e 2 kηn k La Hessienne G (6.37) 2 −L(zn ). (6.38) requise par l'échantillonnage peut être calculée analytiquement dans notre problème à partir de l'équation (6.9). De plus, seul un unique MAP minimisation de L. z? a besoin d'être calculé par Ainsi les échantillons peuvent être obtenus de manière numériquement ecace, ce qui permet de calculer un grand nombre d'entre eux en parallèle. Quand le système devient signicativement non-gaussien, le MAP et l'inverse de la Hessienne deviennent de piètres estimations de la moyenne et de la matrice de covariance. Dans ce cas, nous proposons d'estimer la moyenne et la matrice de covariance au fur et à mesure que les échantillons sont calculés. Nous proposons de mettre à jour zn selon ωn zn = zn−1 + Pn i=1 ωi et la somme Sn = Pn i=1 ωi (zi − zn )(zi − zn )T (zn − zn−1 ), (6.39) selon Sn = Sn−1 + ωn (zn − zn )(zn − zn−1 )T. (6.40) Un rapide calcul montre que l'estimateur sans biais de la matrice de covariance des erreurs, relié à Sn Cn, est par Pn i i=1 ωP Sn, Cn = Pn ( i=1 ωi )2 − ni=1 ωi2 (6.41) pour des poids normalisés ou non. Les deux équations de mise à jour (6.39) et (6.40) sont cohérentes dans la mesure où zn converge vers la moyenne et Cn converge vers la matrice de covariance. De plus, ces deux formules ont été développées an d'éviter les eets d'annulation catastrophique (Welford, 1962) qui risquent fortement d'arriver avec des formules naïves de mise à jour. En notant Ln la factorisation de Cholesky de Cn, c'est-à-dire, Cn = Ln LT n, l'équation (6.37) devient zn = zn−1 + Ln−1 η n. (6.42) En pratique, le MAP et la Hessienne sont toujours utilisés pour initialiser la récursion en tant qu'approximations grossières de la moyenne et de la matrice de covariance. Nous avons constaté que cette méthode adaptative était supérieure à son équivalent non-adaptatif en situation modérément non-gaussienne. De toute évidence, pour que la méthode soit ecace, la pdf a posteriori se doit de ne pas être trop éloignée d'une gaussienne. Du fait de l'étape séquentielle de mise à jour, les échantillons sont obtenus séquentiellement. Néanmoins, en pratique, cela n'est pas trop contraignant puisque plusieurs chaînes séquentielles peuvent être engendrées en parallèle de façon indépendante.
Chapitre 6 6.4.2 Échantillonnage par randomize-then-optimize naïf et sans biais
Nous considérons ici deux autres méthodes non-linéaires pour échantillonner selon la distribution a posteriori de la source. Un problème inverse avec des statistiques d'a priori gaussiennes et un modèle physique non-linéaire a une pdf a posteriori J(z) = où h p(z|y) ∝ e−J(z) avec 1 1 ky − h(z)k2R + kz − zb k2B 2 2 (6.43) est le modèle non-linéaire de l'espace des états à l'espace des observations. Notre problème, fondé sur des statistiques d'erreur log-normales et un modèle linéaire d'après l'équation (6.9), peut aisément être transformé avec le formalisme en eectuant les substitutions : h(z) ← ln Hxez. Dénissons! 1 w= w et f (z) sont tous deux J(z) = 21 kw − f (z)k2. R− 2 y 1 B− 2 zb 1 et f (z) = des vecteurs de RM +P. N (0, IM +P ) et!. Avec ces dénitions, Une méthode intuitive pour échantillonner selon tiques gaussiennes a priori R− 2 h(z) 1 B− 2 z 0 ← zb, y ← ln y, (6.44) J peut être condensée en p(z|w) est de perturber w selon ses statisJ(z) pour obtenir un échantillon. Autant et de minimiser d'échantillons que nécessaires peuvent être ainsi obtenus en parallèle. Cette méthode produit un échantillonnage sans biais de la distribution a posteriori sous réserve que comme il a été remarqué par Bardsley général où z 7→ f (z) et al. f soit linéaire. Cependant, (2014), cet échantillonnage n'est pas exact dans le cas est non-linéaire, même s'il peut s'agir d'une bonne approximation. Cela n'em- pêche pas cette approche naïve d'être au c÷ur des méthodes d'assimilation de données connues sous le nom d'ensemble of data assimilation (EDA), qui sont utilisées opérationnellement dans les centres de modélisation numérique du temps (par exemple, Raynaud et al., 2011; Bonavita et al., 2012, pour Météo-France et le Centre européen pour les prévisions météorologiques à moyen terme (CEPMMT)). Elle a également été utilisée par Winiarek et al. (2014) pour estimer l'incertitude a posteriori de l'inversion du terme source de césium-137 de la FDNPP. Cette démarche approchée d'échantillonnage non-linéaire sera nommée RTO naïf par la suite. Bardsley et al. (2014) orent un schéma original qui imite cette approche naïve mais eectue un échantillonnage non-linéaire sans biais de la distribution a posteriori p(z|w). Sans biais signie qu'un échantillon produit par cette méthode est véritablement tiré selon la pdf a posteriori. Elle s'appuie sur les méthodes de maximum de vraisemblance aléatoire de Oliver et al. (1996), qui furent les premiers à proposer un échantillonnage par RTO, potentiellement suivi d'une étape de correction (en utilisant un critère de Metropolis-Hastings) dans le cas non-linéaire. fz? ∈ R(M +P )×M le tangent linéaire? de f au point z. Nous eectuons une décomposition QR de fz? : fz? = QU où Q est une matrice (M +P )×M et U est une matrice triangulaire supérieure de RM ×M. Soit Q e une orthogonale de R (M +P )×P matrice orthogonale dans R qui complète la base orthonormale formée par les colonnes de Q. Pour obtenir un échantillon zn de la distribution a posteriori, on échantillonne tout d'abord εn ∼ N (0, IM +P ) et calculons Dénissons le MAP du problème : z? = argmin J(z). Soit zn = argmin QT (w + εn − f (z)). (6.45) z Cependant, il y a un poids attaché à cet échantillon, 2 e− 2 kQ (w−f (zn ))k ωn =, |QT fz? | 1 eT (6.46) 6.4. Quantication des incertitudes 147 {zn, ωn }1≤n≤N. Bardsley randomize-then-optimize (RTO). Nous nous qui doit être calculé pour obtenir un ensemble sans biais d'échantillons et al. (2014) ont nommé ce schéma d'échantillonnage référerons à leur article pour une démonstration complète du schéma, ou à l'appendice B de Liu et al. (2017, soumis) pour une démonstration heuristique mais compacte. Les deux méthodes d'échantillonnage RTO, naïf et sans biais, sont coûteuses car nécessitent autant de minimisations que d'échantillons, même si celles-ci sont indépendantes et peuvent être eectuées en parallèle. Contrairement au RTO naïf, le RTO sans biais peut être impacté par une variance signicative des poids, qui provoque des erreurs d'échantillonnage et invite donc à tirer plus d'échantillons. Cependant, les deux RTO ont besoin de moins d'échantillons que la méthode de Laplace présentée dans la section précédente, car chacun des échantillons produit est plus pertinent. 6.4.3 Méthode basique de Monte-Carlo par chaînes de Markov
Des échantillons de la pdf équation (6.7) peuvent être engendrés numériquement par les techniques versatiles de Monte-Carlo par chaines de Markov (MCMC, Metropolis et al., 1953; Hastings, 1970; Green, 1995). Le MCMC fournit une séquence d'échantillons dans l'espace de l'ensemble dont la distribution invariante est la pdf que nous souhaitons échantillonner, à savoir p(x|y). La transi- 0 tion de cette chaîne, ou déplacement, consiste à tirer x selon q(x0 |x), connaissant la valeur actuelle x. Par conséquent, cette séquence est une chaîne de Markov, puisque la pdf de transition q pour x0 0 ne dépend que de x. Un tel déplacement x est accepté si et seulement si u≤ où u est tiré selon U[0, 1], p(x0 |y) q(x|x0 ), p(x|y) q(x0 |x) la distribution uniforme sur [0, 1] ; (6.47) sinon x est inchangé. Cette règle de sélection (6.47), de type Metropolis-Hastings, assure que la chaîne engendre des échantillons de la p(x|y). De la chaîne {xn }n=1,***N, on peut estimer les moments p(x|y). Dans l'équation (6.47), le terme p(x0 |y)/p(x|y) peut de manière 0 0 remplacé par {p(y|x )p(x )} / {p(y|x)p(x)}, grâce à l'annulation des constantes de distribution invariante, c'est-à-dire de la pdf a posteriori équivalente être normalisation. Ce ratio peut être calculé numériquement. La convergence de la chaîne est garantie sous des hypothèses faibles, telles l'irréductibilité de la chaîne de Markov. On entend par convergence le fait que les échantillons produits fournissent une approximation de Monte-Carlo able de la pdf p(x|y). Cependant, cette convergence peut être longue, tout particulièrement lorsque la dimension de l'espace des états est grande et que le déplacement est inecace. La transition que l'on utilise est l'application d'un bruit gaussien à un taux d'émission choisi au hasard. Cette technique peut être appliquée à l'approche BE, et donc à l'estimation de représente un échantillonnage approché de la pdf? p(x|y, θ? ), qui? p(x, θ|y) ≈ p(x|y, θ )δ(θ − θ ).
6.4.4 Application aux accidents de Tchernobyl et Fukushima Daiichi
Dans ce second jeu d'illustrations, nous appliquons ces méthodes d'UQ, l'échantillonnage préférentiel de Laplace, le RTO naïf, le RTO sans biais et le MCMC, à l'estimation de la pdf de la TRRAs de la CNPP et la FDNPP. Nous utilisons uniquement des statistiques d'erreur log-normales. Les pdfs sont tracées sur la Fig. 6.2. L'approximation de Laplace utilise l'estimation adaptative de la covariance, qui améliore considérablement la convergence dans ce cas. Le RTO sans biais utilise la variante Metropolis-Hastings décrite dans Bardsley et al. (2014), qui incorpore une étape de Metropolis-Hastings pour éviter de calculer le poids des échantillons, même si nous n'avons pas remarqué d'amélioration en termes de 148 Chapitre 6 convergence, comparée à la variante originelle. Pour atteindre un compromis entre précision et coût de calcul, nous choisissons de 6 h. sur les M = 40 taux d'émissions pour la CNPP, chacun d'entre eux d'une durée Dm de l'EM donne r? = 1.35 et b? = 2.26 en moyenne Avec ces paramètres, la conguration 40 b?m. Les courbes issues des échantillonnages de Laplace et MCMC sont confondues, comme on pouvait l'espérer, étant donné qu'il s'agit de méthodes exactes d'échantillonnage (pour un jeu xé d'hyperparamètres). Le RTO naïf donne une distribution diérente qui est clairement biaisée en direction de plus grosses TRRAs. Le RTO sans biais eectue un échantillonnage exact du problème BE. Cependant, un léger écart situé au niveau du MAP de la distribution est observé, par rapport à la référence fournie par les approches de Laplace et MCMC. Le RTO sans biais agit comme s'il avait du mal à ajuster les échantillons proches du MAP, qui devraient être les mêmes que ceux du RTO naïf, mais avec des poids. La méthode de Laplace utilise
utilise 2.4 × 5 UQ of the CNPP total released activity 4.5 Laplace proposal naive RTO unbiased RTO MCMC 4 UQ of the FDNPP total released activity Laplace proposal naive RTO unbiased RTO MCMC 4.0 3.5 3.0 3 Density Density 2.4 × 108 échantillons ; le MCMC 4.8 × 106 échantillons. 107 échantillons ; les RTO naïf et sans biais produisent 2 1 0
75
0.5 (a)
80 85 90
95 Total 137Cs released activity (PBq) Figure 6.2 0.0 12 100 (b)
14 18 20 22 24 26 28 Total
137
Cs released activity (PBq) 30 32 Fonctions de densité de probabilité des TRRAs de la CNPP (à gauche) et de la FDNPP (à droite). L'échantillonnage de Laplace, le RTO naïf, le RTO sans biais et le MCMC sont comparés. Les courbes des solutions par les méthodes de Laplace, du RTO sans biais et du MCMC sont presque confondues. Figure tirée de Liu et al. (2017, soumis). M = 80 taux d'émission, chacun d'entre eux d'une?? conguration Dm de l'EM donne r = 2.05 et b = 2.64 Dans le cas de la FDNPP, nous choisissons durée de 6 h. Avec ces paramètres, la en moyenne sur les 80 b?m. Les résultats obtenus sont similaires à ceux de la CNPP, même si les distributions sont apparemment moins gaussiennes, avec une queue de distribution plus épaisse en direction des fortes valeurs de TRRA. Le MAP est à la médiane est à 20.7 PBq. 20.2 PBq, la moyenne à 20.9 PBq tandis que Ces diérences prouvent la présence de cette queue de distribution. Comme dans le cas de la CNPP, le RTO sans biais n'a pas parfaitement convergé et présente un bruit d'échantillonnage résiduel. 6.5 Hiérarchie bayésienne complète
Dans l'approche BE, l'échantillonnage est exact une fois que θ? est déterminé. Dans cette section, nous considérons cette fois l'approche bayésienne complète et l'échantillonnage exact de p(x, θ|y). Les résultats peuvent servir de référence pour se comparer à la section 6.4. En eet, nous? avons vu que si p(θ|y) est piquée autour de θ, la marginalisation de p(x, θ|y) sur θ est approchée 6.5. Hiérarchie bayésienne complète par 149 p(x|θ?, y). 6.5.1 Méthode hiérarchique de Monte-Carlo par chaînes de Markov
Comme il a été vu dans la section 6.3.3, il est possible d'échantillonner selon la distribution a posteriori et prendre en compte les incertitudes sur θ par la hiérarchie présentée à l'équation (6.12). Les échantillons issus d'une telle hiérarchie peuvent être engendrés avec un MCMC dont la distribution invariante est la pdf conditionnelle 0 0 à échantillonner x, θ de et seulement si p(x, θ|y). La transition pour cette chaîne consiste x, θ. Une telle transition x0, θ 0 est acceptée si q(x0, θ 0 |x, θ), connaissant u≤ p(x0, θ 0 |y) q(x, θ|x0, θ 0 ), p(x, θ|y) q(x0, θ 0 |x, θ) (6.48) u est tiré selon U[0, 1] ; sinon, x, θ sont conservés. Dans l'équation (6.48), le terme p(x0, θ 0 |y)/p(x, θ|y) peut de manière équivalente être remplacé par le ratio de pdfs hiérarchiques où p(y|x0, θ 0 )p(x0 |θ 0 )p(θ 0 ) / {p(y|x, θ)p(x|θ)p(θ)}, (6.49) grâce à l'annulation des constantes de normalisation. Ce ratio peut être calculé numériquement. Ainsi, un échantillonnage par méthode MCMC existe aussi bien pour l'approche BE que BC. Les transitions que l'on considère pour notre application sont : (i) l'application d'un bruit gaussien à un taux d'émission choisi au hasard, (ii) l' application d'un bruit gaussien à un hyperparamètre choisi au hasard. La variance de ces distributions gaussiennes est prise de telle sorte que le taux d'acceptation soit autour d'1/3. 6.5.2 Analyse transdimensionnelle
Le but principal d'une analyse transdimensionnelle (Sambridge et al., 2013, et les références qui y gurent) est de déterminer le maillage le plus pertinent pour les variables de contrôle utilisées pour eectuer l'inversion. Ainsi, il s'agit d'un outil adaptatif permettant de réduire le temps de calcul, particulièrement lors du recours à un MCMC pour échantillonner selon la distribution a posteriori. Plus précisément, le maillage est lui-même considéré comme une variable faisant partie de l'inversion. Cela revient à étendre la hiérarchie de l'équation (6.12). Si g paramètres décrivant le maillage permettant la discrétisation du problème, à savoir la position des points de grille et leur nombre M, alors la nouvelle hiérarchie bayésienne s'écrit p(y|x, θ, g)p(x, θ, g) p(y) p(y|x, θ, g)p(x|θ, g)p(θ, g) = p(y) p(y|x, θ, g)p(x|θ, g)p(θ|g)p(g) =, p(y) p(x, θ, g|y) = où p(θ|g) (6.50) est la distribution a priori des hyperparamètres connaissant le maillage et p(g) est l'a priori pour ce maillage. Le recours à une méthode de MCMC pour échantillonner selon p(x, θ, g|y) nécessite des modi- cations mentionnées dans Green (1995, 2003), pour créer ce qu'on appelle un MCMC avec saut réversible. Il est toujours possible d'utiliser une règle de Metropolis-Hastings comme dans l'équation (6.48), mais il faut l'amender d'un facteur correctif, une Jacobienne J qui tient compte du 150 Chapitre 6 change ment de dimension des espaces des états. La règle devient donc u≤ p(x0, θ 0, g0 |y) q(x, θ, g|x0, θ 0, g0 ) |J|.
p(x
,
θ,
g|y) q(x0
,
θ 0, g0 |x
,
θ
,
g)
(6.51) Cette Jacobienne peut être calculée en utilisant une extension stochastique du déplacement transdimensionnel pour en faire un diéomorphisme avec une Jacobienne correctement dénie. Les détails théoriques peuvent être trouvés dans Green (2003) et un exemple clair est présenté dans Bodin et Sambridge (2009). Nous notons également que dans le contexte de modélisation inverse d'un rejet accidentel de polluants dans l'atmosphère, Yee (2008) a utilisé un MCMC avec saut réversible an d'estimer plusieurs sources ponctuelles. Dans le contexte de la modélisation inverse des émissions de gaz à eet de serre, cette méthode a été utilisée par Lunt et al. (2016) pour l'estimation d'un champ bidimensionnel d'émission de méthane au Nord-Ouest de l'Europe. Dans le cas de nos illustrations, nous considérons un maillage adaptatif avec M +1 n÷uds, deux d'entre eux étant respectivement les dates de début et de n de la période d'émission. Cela correspond donc à M taux d'émission dénissant chacun une émission uniforme entre deux n÷uds. Cela coïncide avec un pavage de Voronoi dont l'implémentation est aisée en comparaison du cas bidimensionnel de Lunt et al. (2016). Les déplacements que l'on considère sont : les déplacements (i) et (ii) de la section 6.5.1, (iii) le déplacement aléatoire sur une distance gaussienne d'un n÷ud choisi aléatoirement. Cela est susant si on choisit de xer |J| = 1 car le nombre de n÷uds est inchangé. Si M M. Dans ce cas précis, la Jacobienne est est variable, on peut alors également considérer (iv) le processus de naissance d'un n÷ud, (v) le processus de mort d'un n÷ud. Il est possible, comme dans l'appendice B de Bodin et Sambridge (2009), de construire ces processus de telle sorte que la Jacobienne reste 1, ce qui n'est en général pas le cas pour ces deux derniers processus.
| 3,716
|
63/tel.archives-ouvertes.fr-tel-00426247-document.txt_2
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 8,571
| 13,449
|
mité "+" des MTs, mais pas le transport du RE vers le Golgi. Ce dernier doit donc faire intervenir une autre classe de moteurs moléculaires qui marchent vers l'extrémité "-". En effet, le centre d'organisation des MTs (MTOC), là où ils sont nucléés (extrémité "-"), se situe près de l'appareil de Golgi (fig. 1.12, voir aussi la photo figure 1.13(A)) dans la plupart des cellules de mammifères. Les MTs s'étendent donc du centre ("-") vers le RE et la périphérie de la cellule, où se situent les extrémités "+". Le transport du RE vers le Golgi (vers l'extrémité "-" des MTs) est assuré par des dynéines cytoplasmiques [Paschal and Vallee, 1987] (fig. 1.12). Les dynéines sont bien des moteurs qui avancent vers l'extrémité "-" des MTs. Le transport n'a pourtant lieu que lorsque la dynéine forme un complexe avec la dynactine [Gill et al., 1991]. Ce transport a pu être observé par différents groupes : [Presley et al., 1997, Burkhardt et al., 1997, Harada et al., 1998]. Il a aussi été montré que les intermédiaires de transport portent des kinésines dont l'activité est bloquée lors du transport RE-Golgi par les protéines de manteau COP-I, impliquées dans le transport antérograde [Lippincott-Schwartz et al., 1995]. Le mouvement des kinésines lors de ce transport antérograde a d'ailleurs pu être réactivé in vitro [Lane and Allan, 1999] (pour revue [Allan and Schroer, 1999]). Le transport à longue distance Golgi-membrane plasmique (vers l'extrémité "+" des MTs) fait aussi intervenir des kinésines [Kreitzer et al., 2000]. La formation des intermédiaires de transport a été étudiée en détail dans [Polishchuk et al., 2003]. Les auteurs ont montré que leur formation ne dépendait ni de la concentration en cargos, ni du recrutement de protéines de manteau à la surface de la membrane qui va
23 Chapitre 1. De la cellule vivante aux systèmes biomimétiques
Fig. 1.12 – Organisation des voies de sécrétion précoce dans une cellule somatique animale. Le transport Golgi-RE est effectué par des kinésines (les dynéines présentes aussi sur le cargo sont inactives) alors que le transport RE-Golgi est effectué par des dynéines cytoplasmiques (les kinésines sont inactives). On remarque la position MTOC entre le noyau et le Golgi. Figure issue du site internet du groupe de Vicki Allan. bourgeonner. Les intermédiaires de transport sont simplement extraits de la membrane et tirés par les moteurs moléculaires. Les auteurs ont notamment réussi à observer la présence de kinésines le long et au bout d'un tube de membrane en train d'être tiré (fig 1.13 (D)). Cette observation in vivo pourra ensuite être comparée avec nos observations in vitro sur la distribution des moteurs moléculaires qui tirent un tube de membrane à partir de vésicules géantes et qui s'accumulent au bout du tube (voir chapitre 5). Enfin, il a été montré que d'autres moteurs moléculaires comme les myosines [Stow and Heinmann, 1998, DePina and Langford, 1999] et la dynamine (qui n'est pas un moteur conventionnel puisqu'il n'avance pas le long de filaments du cytosquelette, mais il utilise l'énergie obtenue par l'hydrolyse de nucléotides pour effectuer un changement de conformation) [Kreitzer et al., 2000] participaient au trafic de membranes dans la cellule, mais leur rôle exact est moins clair que celui des kinésines ou des dynéines et doit encore être déterminé (pour revue [Allan et al., 2002]).
X Accrochage des moteurs aux membranes
La famille des kinésines est très étendue6 [Hirokawa, 1998]. L'utilisation d'anticorps anti-kinésine comme le H1 [Lippincott-Schwartz et al., 1995] ne permet pas de déterminer de façon précise quel membre de la famille est impliqué [Hirokawa et al., 1989]. Cependant, le développement des techniques de marquage, de génétique et d'observation a permis de mettre en évidence un grand nombre de moteurs moléculaires 6 voir ch.2 §B pour une étude plus détaillée des kinésines 24
A. Trafic intracellulaire
Fig. 1.13 – (A) Colocalisation entre la protéine de virus VSVG-
P (vert) marquant le Golgi avec le réseau de MTs révélé après fixation par des anticorps (rouge) dans une cellule Cos7. On observe la présence de tubes de Golgi. L'image superposée montre bien que le Golgi est proche du MTOC et que les tubes tirés sont alignés avec des MTs. (B) Observation en microscopie de fluorescence d'une cellule transfectée avec VSVG-GFP. (C) Zoom de l'encadré en pointillé dans (B). Séquence d'images montrant la formation d'un tube de membrane à partir du Golgi, la vitesse de croissance est de l'ordre de 0,1 μm/s. (D) Même intermédiaire de transport qu'en (C) fixé et traité avec de l'anti-kinésine (H1). On observe une concentration plus importante de kinésines au niveau du bout du tube (tête de flèche) et au niveau d'intermédiaires de transport libres (flèches). impliqués dans le trafic intracellulaire. La diversité des moteurs ainsi que la façon dont ils s'accrochent à la membrane et leur interaction avec les composants impliqués dans le tri, le bourgeonnement et le ciblage montre qu'il est impossible de découpler la trafic de membrane du trafic des moteurs moléculaires. Par exemple, il a été montré que AP1, qui coordonne la formation de vésicules à la surface du Golgi (pour revue [Kirchhausen, 2002]), interagit aussi avec la queue d'au moins une kinésine : KIF13A [Nakagawa et al., 2000]. Des études récentes ont de plus permis d'élucider certains modes de liaison des moteurs avec la membrane. En ce qui concerne les kinésines, il existe une grande variété de protéines ("kinesin-cargo-linkers") qui font le lien entre la membrane et la kinésine. Ce sont des protéines adaptatrices ou bien d'échafaudage ("scaffold"). Étant donné le grand nombre de sites d'accrochages présents à la fois , et , le nombre de possibilités d'association est immense. On peut penser que ces associations jouent un rôle dans la signalisation, en plus du transport des cargos (fig. 1.14). Cette hypothèse a d'ailleurs été testée sur plusieurs exemples (voir pour revue [Schnapp, 2003]). Le fait que les protéines qui font le lien entre la kinésine et la membrane ont d'autres sites d'accrochage pour d'autres moteurs moléculaires laisse penser qu'il existe une coordination entre les différents moteurs qui sont accrochés sur un même cargo, ce qui peut servir notamment dans le choix de la voie à prendre ainsi que dans la régulation de l'activité de ces moteurs [Schnapp, ]. D'autres liens entre la kinésine et la membrane ont été découverts. Par exemple, il peut exister un lien direct entre certains lipides présents dans la membrane et un des membres de la famille Unc104/KIF1 [Klopfenstein et al., 2002]. Les lipides impliqués sont des phosphoinositides qui ont déjà été mentionnés pour leur rôle dans le tri et/ou le ciblage des cargos plus haut (§A.4.1). Il a été montré que les moteurs se préassemblent dans des domaines riches en phosphoinositides, ce qui active leur activité dans le transport. D'autres moteurs comme certaines myosines peuvent aussi se lier directement à la membrane [Tang et al., 2002]. La kinésine peut aussi se lier au récepteur membranaire placé sur le cargo qu'elle doit transporter ; ce qui est le cas dans les neurones avec le récepteur APP (Amuloid Precursor Protein) [Kamal et al., 2000] (fig. 1.14). Un récepteur membranaire connu pour la kinésine-1 (conventionnelle, voir la nouvelle nomenclature dans [Lawrence et al., 2004]) est la kinectine [Toyoshima et al., 1992] (voir pour revue [Burkhardt, 1996]). Il est possible que ce récepteur forme un complexe avec la kinésine et la dynéine cytoplasmique [Vallee and Sheetz, 1996] (voir pour revue [Lane and Allan, 1998]), ce qui est en accord avec ce que nous savons sur la présence des deux types de moteurs dans le transport le long des voies de sécrétion précoces dans la figure 1.12. Il a aussi été démontré que les kinésines pouvaient se lier aux protéines Rab, de même que certaines dynéines et myosines (voir pour revue [J.A. Hammer and Wu, 2002]). L'interaction entre le récepteur transmembranaire et la kinésine peut se faire à la fois au niveau des chaı̂nes légères et/ou de la queue des kinésines (voir ch.2 §B.1.2, la structure de la kinésine) ou bien de façon coopérative entre les deux (voir pour revue [Schliwa and Woehlke, 2003, Wozniak et al., 2004]). Cependant, le mécanisme de cette coopération reste inconnu. En ce qui concerne la dynéine, nous savons que l'accrochage peut se faire via un complexe contenant la dynactine et la spectrine [Holleran et al., 1998, Muresan et al., 2001] ou bien de façon directe avec une protéine membranaire : la rhodopsine [Tai et al., 1999]. Un résumé des différents moyens d'accrochage des moteurs moléculaires la membrane est représenté figure 1.15 (voir pour revues [Klopfenstein et al., 2000] et [Schliwa and Woehlke, 2003]). Des études récentes ont montré de plus qu'il existe plusieurs liens entre les systèmes de transport liés aux MTs et ceux liés à l'actine [Kuriyama et al., 2002], grâce notamment à des complexes qui se trouvent à l'extrémité "+" des microtubules [Lantz and Miller, 1998], contenant par exemple CLIP-170 (Cytoplasmic Linker Protein) [Rickard and Kreis, 1996, Perez et al., 1999] ou bien des MAPs (MT 26 A.
Trafic intracellulaire
Fig. 1.14 – Un des moyens d'accrochage de la kinésine sur une vésicule cargo utilise un lien entre la kinésine et une protéine transmembranaire (excepté dans le cas d'APP). Associated Proteins), ou encore des CLIMPs (Cytoskeleton-Linking Membrane Proteins) suivant le type de cargos ou de transport [Klopfenstein et al., 1998]. Les différents types de moteurs moléculaires jouent un rôle important dans le trafic intracellulaire ; ils ne font pas que transporter les intermédiaires de trans27
Chapitre 1. De la cellule vivante aux systèmes biomimétiques
Fig. 1.15 – Les différents types de lien cargo-moteur pour les kinésines (a-d), les dynéines (e-f) et les myosines (g-h). (a) Interaction entre une protéine transmembranaire (bleue) et la chaı̂ne légère de la kinésine (verte) ; (b) entre un récepteur transmembranaire et la chaı̂ne lourde de la kinésine via une protéine (rouge) ; (c) entre un récepteur et la chaı̂ne légère de la kinésine via un complexe protéique (violet) ; (d) entre un phospholipide et un domaine de la kinésine (type Unc104). (e) Interaction entre la dynéine et un récepteur via le complexe dynactine (rouge) et la spectrine (vert) ; (f) lien direct entre la chaı̂ne légère de la dynéine et une protéine transmembranaire : la rhodopsine. (g) Lien entre la queue de la myosine V et la protéine membranaire rab27 (rouge) via la melanophiline (violet) [Wu et al., 2002] ; (h) lien direct entre la myosine et des phospholipides. D'après [Schliwa and Woehlke, 2003]. port mais interviennent aussi dans le tri et la signalisation de ceux-ci. Une partie des mécanismes impliqués vient d'être présentée mais il en existe probablement bien d'autres qu'il reste encore à découvrir. Une des questions cruciales qui se pose maintenant concerne la régulation de ces différents mécanismes de transport, qui est probablement couplée aux mécanismes de coordination des moteurs [Allan and Schroer, 1999]. Il est bien sûr illusoire de vouloir présenter ici, en introduction, l'ensemble des mécanismes de régulation connus actuellement puisqu'il doit en exister autant que de types de protéines impliquées. Je vais donc m'attacher à présenter les principaux mécanismes avec les composants impliqués, car ceux-ci pourraient éventuellement être testés in vitro grâce à des système biomimétiques semblables à celui que j'ai développé pendant ma thèse. A.5 Les mécanismes de régulation du trafic
Pour chaque type d'organite, il existe beaucoup de niveaux de contrôle, à la fois en termes de direction du mouvement et de commutation entre l'état activé et l'état non-activé des nombreuses protéines impliquées. De plus, les organites agissent 28 A. Trafic intracellulaire quelques fois indépendamment, d'autres fois de façon coordonnée. Enfin, les mécanismes de régulation dépendent fortement de l'état de la cellule dans son cycle cellulaire. On comprend en effet que les informations à échanger entre organites ne seront pas les mêmes si la cellule est en interphase ou en mitose (par exemple [Niclas et al., 1996]). Nous verrons plus loin dans quelle mesure il est possible de valider ces hypothèses par des études in vitro du trafic de membrane.
A.5.1 Mécanismes à l'échelle moléculaire X Phosphorylation des moteurs moléculaires
La première idée qui vient naturellement lorsque l'on parle d'activer ou désactiver une protéine est le mécanisme de phosphorylation des protéines, qui permet souvent de les faire passer d'un état activé à un état désactivé. Ce mécanisme fait intervenir des kinases et des phosphatases ; il a été observé sur différents domaines de la kinésine ([Morfini et al., 2002] par exemple), de la dynéine [Addinall et al., 2001], ou de la myosine [Karcher et al., 2001] in vivo et in vitro (voir pour revue le tableau 1 dans [Lane and Allan, 1998] pas très récent, et [Schliwa and Woehlke, 2003]). Cependant, la phosphorylation ne peut pas tout expliquer et il n'est pas encore clair dans quelle mesure la liaison avec le cargo est directement affectée.
X Activation
de
la kinésine par accrochage sur le cargo
sque la kinésine (au moins la kinésine-1) n'est pas accrochée à un cargo, la queue et la tête sont attachées ensemble et le moteur est bloqué (fig. 1.16) [Hackney et al., 1992, Verhey et al., 1998]. En revanche, quand la kinésine s'accroche à un cargo, un mécanisme encore mal compris provoque le dépliement de la protéine et l'activation de celle-ci. Ce mécanisme est intéressant puisqu'il permet de coupler la régulation du moteur à son accrochage au cargo.
X Couplages entre moteurs
Nous avons vu au paragraphe A.4.2 que les protéines d'échafaudage qui font le lien entre la kinésine et la membrane avaient aussi des sites d'accrochage pour d'autres moteurs. Il est plus compliqué de comprendre comment ces moteurs coopèrent dans le complexe. D'autres expériences ont permis de mettre en évidence le mouvement d'intermédiaires sur plusieurs types de filaments (MT et actine) [Brown, 1999]. De plus, il a été montré que la kinésine pouvait interagir directement avec la myosine V [Huang et al., 1999] au niveau de leur queue, mais il reste à déterminer si cette interaction est bien à la base de leur coordination.
X Rôle des petites GTPases
Nous avons vu au paragraphe §A.4.1 que des petites GTPases intervenaient au niveau du ciblage des intermédiaires de transport lors du trafic. Nous allons voir maintenant qu'elles jouent aussi un rôle dans le contrôle de ce trafic. Ce qui illustre une fois de plus le lien direct qui existe entre les différents mécanismes de tri, de ciblage, de signalisation et de régulation qui interviennent dans le transport de membrane. Les petites GTPases sont des protéines qui peuvent se trouver dans deux états : un état GTP activé et un état GDP inactivé [Martinez and Goud, 1998]. Elles agissent comme des interrupteurs ou bien des minuteurs de molécules, de façon à réguler leur rôle dans le transport. Des études in vitro ont permis de reconstituer le trafic de membrane et ont montré que, dans certains cas, l'action des moteurs était régulée non pas par des kinases ou des phosphatases, mais par des GTPases, 30 A. Trafic intracellulaire dont l'action avait été modifiée en utilisant des nucléotides GTP non hydrolysables [Fullerton et al., 1998]. Un exemple plus précis de l'action des GTPases est illustré par la protéine Rab6, qui active la Rabkinésine6 [Echard et al., 1998]. Si on imagine que chaque Rab, connue pour intervenir dans la régulation de chaque étape du trafic [Barrett et al., 1999], interagit avec une kinésine particulière, on envisage la façon dont la dynamique des membranes peut être coordonnée [Allan and Schroer, 1999].
X Couplages avec les manteaux
Le paragraphe §A.4.1 concernait l'existence de différentes protéines de manteau qui sont impliquées dans la déformation de la membrane avant la formation d'intermédiaires de transport vésiculaires. Dans la cas du transport du Golgi vers le RE, il existe deux voies de transport : l'une fait intervenir la protéine de manteau COP-I, l'autre ne dépend pas de COP-I mais de Rab6 [Girod et al., 1999, White et al., 1999]. Sachant que la perte des protéines COP-I à la surface des intermédiaires de transport (par exemple en ajoutant de la BFA [Sciaky et al., 1997]) entraı̂ne une large augmentation du trafic rétrograde Golgi-RE sans changer le transport antérograde, on peut penser que COP-I intervient dans la régulation du trafic et plus particulièrement dans la formation des tubes de membrane (voir pour revue [Lane and Allan, 1998]). Le mécanisme exact de régulation n'est pas connu, mais, au vu de l'exemple de KIF13 qui interagit avec AP-1 (associée à la protéine de manteau clathrine), on peut penser que les moteurs peuvent interagir directement avec les protéines de manteau de façon à coordonner le transport de vésicules. Cette hypothèse de régulation de la formation de tube de membrane par COP-I est un des mécanismes qu'il serait intéressant de tester in vitro.
X Autres mécanismes
Il existe certaines enzymes qui aident à réguler la forme du Golgi et la formation de tubules (stimulation de PLA2 ou inhibition de LPAT) [Drecktrah et al., 2003]. De plus, nous avons vu qu'il existait des protéines qui font un lien direct entre les MTs et la membrane [Klopfenstein et al., 1998], et qui continuent à jouer leur rôle lorsque les moteurs sont inactivés [Burkhardt et al., 1997, Harada et al., 1998]. Ces protéines sont supposées agir comme lien avec des protéines qui font obstacle au mouvement (comme des MAPs et mapmodulines qui contrôlent l'attachement des MAPs aux MTs) [Rickard and Kreis, 1996], elles doivent donc jouer un rôle important dans la régulation du trafic en libérant ou non les voies de transport. En effet, la surexpression de MAPs peut bloquer le trafic de membrane [Bulinski et al., 1997, Eb h et al., 1998]. Enfin, on peut noter l'existence de la régulation de l'activité de la kinésine par la calmoduline qui s'attache près du site d'accrochage des moteurs sur le MT et qui est elle-même activée par la présence de calcium (Ca2+ ) [Vinogradova et al., 2004]. La liste des mécanismes moléculaires proposés ou démontrés dans ce paragraphe ne reflète probablement qu'une infime partie des différents mécanismes de régulation dont la cellule dispose. Il est possible que certains de ces mécanismes soient couplés avec des mécanismes physiques liés aux propriétés des membranes des différents
Chapitre 1. De la cellule vivante aux systèmes biomimétiques organites. A.5.2 Mécanismes à l'échelle de la membrane X Gradient de tension entre les compartiments
Les membranes biologiques ont des compositions très complexes7 ; elles contiennent plusieurs sortes de lipides, répartis souvent de façon non homogène (dans des micro-domaines, les "lipid rafts") et non symétrique ainsi qu'une grande quantité de protéines insérées qui, pour la plupart, consomment de l'énergie pour fonctionner et maintenir ainsi la membrane hors-équilibre thermodynamique. De plus, à cause du trafic de membrane, le nombre de lipides présents varie en permanence. Dès lors, la description des membranes biologiques en utilisant des paramètres de physique comme la tension de membrane et la rigidité de courbure définis dans le cas de vésicules géantes unilamellaires (GUVs) purement lipidiques (voir ch.2 §C.3.1) à l'équilibre ne recouvre pas la réalité. Des modèles théoriques plus récents [Manneville et al., 2001, Girard et al., 2004] permettent de décrire de façon plus réaliste les membranes biologiques. Il faut donc garder à l'esprit que la définition de la tension d'une membrane dans une cellule reste un sujet très débattu chez les physiciens. L'idée qu'un mécanisme physique de la régulation du transport de membrane pouvait exister est issu des expériences de Sciaky et al. [Sciaky et al., 1997] que nous avons déjà mentionnées auparavant. Ils ont montré que, lorsque les cellules vivantes sont traitées avec de la BFA, un large réseau de tubes de membrane se forme à partir du Golgi vers le RE. Le Golgi se redistribue ensuite dans le RE en un temps de l'ordre de 15 à 30 s. L'étude des temps de vie du Golgi après injection de la BFA permet de dire que cette redistribution se fait par événement discret. Cet événement pourrait par exemple être la fusion d'un tube unique de Golgi avec le RE. La redistribution consisterait alors en un mélange par diffusion des lipides entre les deux organites une fois connectés. L'autre hypothèse possible serait l'absorption unidirectionnelle du Golgi dans le RE (voir les deux schémas fig. 1.17). Cependant, comme le transport de lipides observé par fluorescence est trop rapide pour être expliqué par de la simple diffusion (et par le transport par des moteurs moléculaires), et que de plus il ne reste aucune trace significative du Golgi à son emplacement après avoir été redistribué, on peut penser que le second mécanisme prédomine. Le transfert de membrane observé a toutes les caractéristiques d'un flux de membrane. 32 A. Trafic intracellulaire
Fig. 1.17 – Les deux mécanismes de redistribution de la membrane du Golgi dans le RE après injection de BFA. A gauche, la redistribution se fait par un mélange de membranes qui s'opère par diffusion le long d'un tube de membrane préformé entre les deux compartiments. A droite, le Golgi est absorbé de façon unidirectionnelle par le RE. Bleu : membrane du RE. Jaune : membrane du Golgi. Vert : mélange de membranes REGolgi..D'après [Sciaky et al., 1997]. et vérifier (in vitro) cette hypothèse de différence de tension entre les compartiments. C'est un premier pas dans la validation de ce mécanisme. Cependant, là encore, les interprétations des résultats présentés sont à prendre avec beaucoup de précautions, le pas le plus difficile à franchir étant bien sûr l'assimilation des propriétés mesurées in vitro (en l'absence de tout trafic de membrane et de mécanismes de régulation de la tension de membrane, par exemple par l'intermédiaire du complexe acto-myosine) aux propriétés in vivo. Une mesure directe de la tension de membrane in vivo serait bien sûr la solution idéale mais reste bien difficile à réaliser. La question qui subsiste cependant, en supposant que ce mécanisme soit juste, est comment cette différence de tension est-elle créée au niveau des compartiments? Certaines indications laissent penser que le couplage des organites avec le cortex d'actine par l'intermédiaire de myosines, pourrait avoir un rôle dans le contrôle de la tension de membrane des compartiments [E. Coudrier, Institut Curie, communication personnelle]. Nous avons en effet vu que ce couplage intervient dans la détermination de la forme et l'organisation des organites [Cole and Lippincott-Schwartz, 1995, Rogers and Gelfand, 2000]. Le maintien de la différence de tension entre les organites nécessite de plus une consommation d'ATP. Cependant, le mécanisme de couplage exact reste encore à découvrir.
X Régulation de la formation de tubes de membrane par la tension du compartiment
Un deuxième exemple de régulation de la formation de tubes de membrane a été observé in vivo, mais sans l'action de drogue [Kleijmeer et al., 2001]. Ces expériences ont été réalisées sur des cellules dentritiques en suivant les récepteurs du CMH de 33 Chapitre 1. De la cellule vivante aux systèmes bio mimétiques classe II, présents dans les corps multivésiculaires (sorte d'endosomes tardifs contenant de nombreuses vésicules) (voir §A.2). Lorsque la cellule dentritique est stimulée (par la présence d'un signal chimique), il a été observé que ces corps multivésiculaires formaient des longs tubes de membrane le long de filaments du cytosquelette (fig. 1.18). Fig. 1.18 – Forme des corps multivésiculaires (récepteurs de classe 2) avant et après maturation d'une cellule dentritique. Images de microscopie électronique. (A) Témoin : forme des récepteurs avant l'excitation de la cellule. (B) Forme des corps multivésiculaires après 6h de traitement au LPS (lypopolysaccharide) qui sert de signal. On observe la formation de tubes de membrane le long du cytosquelette. Barre= 200 nm. Les petits points noirs correspondent à la position de petites billes d'or fixées aux récepteurs de classe (10 nm de diamètre). D'après [Kleijmeer et al., 2001]. La formation de ces tubes de membrane a été mise en parallèle avec la fusion des petites vésicules présentes à l'intérieur du corps multivésiculaire contenant les récepteurs du CMH de classe II devant être ensuite transportés à la membrane plasmique. Une explication possible serait que les petites vésicules apportent leur surface à la membrane extérieure, alors que le volume de l'ensemble varie peu a priori. La tension de membrane des ces lysosomes diminuerait alors rapidement [Solon et al., 2005], facilitant la formation de tubes. Nous reviendrons plus précisément au chapitre 3 sur le lien qui existe entre la tension de membrane et la force nécessaire pour extraire un tube. Cette étude n'a pas montré si des moteurs moléculaires étaient impliqués dans la formation des tubes. En revanche, les auteurs ont montré que ce mécanisme de tubulation vers la membrane plasmique pouvait être un moyen de réguler la présence de certaines protéines au niveau de la surface de la cellule. Il y a donc dans ce cas un couplage entre la régulation physique de la formation de tubes de membrane et l'expression d'une protéine dans un mécanisme immunitaire. Cette première partie avait pour but de décrire le contexte biologique de l'étude de tubes de membrane. Des tubes ont en effet été observés par différentes techniques (vidéomicroscopie, microscopie électronique, etc.) au niveau de plusieurs compartiments de la cellule (RE, corps multivésiculaires, tubes entre les citernes du Golgi, 34 B. Reconstitution in vitro des tubes de membrane etc.) et comme intermédiaires de transport dans le trafic intracellulaire. Les raisons biologiques de l'existence de différentes formes d'intermédiaires de transport restent encore mystérieuses, mais nous avons pu remarquer la grande diversité des mécanismes qui régissent leur formation, leur transport et leur fusion, a que le tri des composants qui s'en suit et leur ciblage, et enfin la régulation de ces différentes étapes de transport. Ces mécanismes dépendent de plus du type de cellules eucaryotes étudiées (animale ou végétale, polarisée ou non), de leur position dans le cycle cellulaire (interphase ou division) et du type de trafic étudié (exocytose ou endocytose, précoce ou tardive). Cette grande complexité, à la fois par le nombre de composants impliqués (qui est, la plupart du temps, loin d'être toujours connu) et par les interactions multiples qui peuvent exister entre eux, rend la vérification des mécanismes postulés extrêmement délicate. B Reconstitution in vitro des tubes de membrane
Les premières expériences in vitro ont consisté à reproduire le trafic de membrane avec des compartiments purifiés dans un environnement proche de celui de la cellule, en utilisant des extraits cellulaires (du cytosol de cellules). Nous verrons quels sont les avantages et les inconvénients de ce type d'expériences par rapport à celles où tous les composants utilisés sont purifiés ou artificiels, c'est-à-dire complètement contrôlés. B.1 en utilisant des extraits de cellule X Les constituants
Pour reconstituer in vitro les mécanismes du transport intracellulaire le long de MTs, les constituants de base sont : – des organites purifiés – des MTs, qui, comme nous l'avons vu au paragraphe A.4.2, sont essentiels puisqu'ils servent de rails au transport. Ces MTs sont stabilisés, c'est-à-dire qu'ils gardent une longueur constante dans le temps. – des extraits de cellules contenant toutes les protéines nécessaires au transport, y compris les moteurs moléculaires et les protéines nécessaires à leur attachement à la membrane – de l'ATP. Plusieurs équipes ont de cette façon reconstitué des réseaux de tubes de membrane le long de MTs avec quelques variations (fig. 1.19). Tout d'abord, Dabora et Sheetz ont utilisé du cytosol et des microsomes bruts de fibroblastes de poussin [Dabora and Sheetz, 1988]. Parallèlement, Vale et Hotani ont utilisé des kinésines de calamars partiellement purifiées dans un tampon qui contenait également des membranes dont la constitution n'était pas déterminée [Vale and Hotani, 1988]. Plus tard, Allan et Vale ont montré que l'utilisation de cytosol d'ovocytes de la permettait d'observer la formation de réseaux de tubes de membrane à partir de microsomes d'ovocytes bruts, ou bien de membranes de RE ou Golgi purifiées à partir de foies de rats [Allan and Vale, 1991, Allan and Vale, 1994, Allan, 1995, Niclas et al., 1996, Fullerton et al., 1998]. Fig. 1.19 – Réseaux de tubes de RE tirés in vitro le long d'un réseau de MTs stabilisés. Les MTs sont à gauche, marqués en rouge et le RE (membrane purifiée à partir de foies de rats) est marqué en vert. Cette photo est à mettre en parallèle avec celle montrant un réseau de RE in vivo figure 1.8. Images issues du site internet du groupe de Vicki Allan.
X Avantages de l'utilisation d'extraits cellulaires
• Le premier avantage vient du fait que l'on peut bloquer une par une les protéines d'intérêt et voir l'influence de chaque protéine sur le réseau de tubes (par exemple la protéine phosphatase 1 [Allan, 1995], ou la kinésine bloquée par un anticorps [Lane and Allan, 1999, Robertson and Allan, 2000]). • Le deuxième avantage vient du fait que les expériences faites avec des extraits sont plus proches des expériences in vivo comparées à celles effectuées dans un simple tampon. Il est ainsi possible de voir l'influence de la position dans le cycle cellulaire de l'extrait utilisé [Allan and Vale, 1991]. • Il est aussi possible d'utiliser les mêmes techniques qu'in vivo (immunofluorescence et microscopie électronique) pour déterminer la localisation des protéines d'intérêt [Fullerton et al., 1998, Lane and Allan, 1999]. • Diverses drogues peuvent enfin être utilisées pour déterminer leur influence sur le réseau de tubes de membrane (voir tableau 1.1), ce qui permet de mieux comprendre quels sont les éléments impliqués dans le trafic de membrane.
X Application à l'étude des transports RE-Golgi et
Golgi-RE Ce genre d'étude a permis de montrer que le mouvement du RE est largement inhibé lorsqu'un extrait de cellules en métaphase est utilisé, ce qui est dû au détachement 36 B.
Reconstitution in vitro des tubes de membrane
rogue ou réactif 2 mM ATP AMP-PNP Apyrase 20 μM Colcichine 20 μM Vanadate 100 μM Vanadate 2 μM Cytochalasine GTP γS N-Ethhylmaleimide (NEM) EGTA Présence de tubes ++ + ++ ++ Commentaires Contrôle Hydrolyse de l'ATP nécessaire Présence d'ATP dans les extraits nécessaires Importance des MTs Inhibition partielle de la kinésine Inhibition totale de la kinésine Pas de rôle du cortex acto-myosine Motilité régulée par des petites GTPases Nécessité de la fusion de membrane pour avoir des réseaux Pas de rôle du Ca2 + dans la motilité Tab. des dynéines (et/ou de son complexe associé, la dynactine). Ce détachement coı̈ncide avec l'hyperphosphorylation de la chaı̂ne intermédiaire de la dynéine cytoplasmique [Allan and Vale, 1991, Niclas et al., 1996]. Au contraire, l'utilisation d'extrait de cellules en interphase et d'un inhibiteur des phosphatases permet de stimuler largement le trafic de membranes de RE, sans pour autant affecter le nombre de dynéines accrochées à la membrane [Allan, 1995]. Plus récemment, il a été montré que la direction du mouvement du RE sur les MTs est régulée par les composants présents dans le cytosol des cellules. En effet, le cytosol préparé à partir de cellules de tissu active le mouvement de membranes de RE d'oeufs de Xenopes, vers l'extrémité "+" des MTs (donc est contrôlé par des kinésines) [Lane and Allan, 1999] alors que le cytosol issu de cellules de jeunes embryons ne l'active pas. La régulation du trafic par les éléments du cytosol dépend donc du type de cellules, comme de l'avancement de leur propre développement. En ce qui concerne le transport du Golgi vers le RE qui implique des kinésines, des études in vitro de transport de membrane ont permis d'isoler des moteurs impliqués dans la formation de tubules en présence de BFA le long de MTs. Ces moteurs doivent ]. L'utilisation des différents types d'extraits a permis de montrer que la formation de tubules est active avec un extrait de cellules en interphase mais pas avec un extrait de cellules en métaphase, comme ce qui avait été montré dans le cas du RE. Ceci prouve qu'il existe un mé e de régulation des kinésines pendant le cycle cellulaire. On peut remarquer ici que les études in vitro apportent des réponses complémentaires aux études in vivo présentées dans la première partie de ce chapitre, sur les moteurs impliqués dans les trafics RE-Golgi et Golgi-RE. Il est important de noter enfin qu'il est aussi possible de reconstituer in vitro un large réseau de tubes de membrane de RE, même en l'absence de réseau de MT mais en utilisant du cytosol [Dreier and Rapoport, 2000]. Même si les protéines impliquées dans la formation d'un tel réseau interconnecté n'ont pas été isolées, il est possible d'en déduire que le cytosol possède tous les composants nécessaires à la modification et la régulation des réactions de fusion de membranes pour former des tubes à partir de vésicules.
X Mise en évidence d'un domaine globulaire au niveau du bout du tube
Allan
et
Vale
ont étudié la formation de réseaux de tubes de membrane de Golgi et de RE in vitro [Allan and Vale, 1994](fig. 1.20 (A)). Ils ont mis en évidence la présence d'un domaine globulaire au bout des tubes en train d'être tirés. Ces domaines sont plus gros dans le cas du Golgi et probablement enrichis en moteurs moléculaires étant donné leur interaction avec les MTs (fig. 1.20, (B-a)). Une étude en immunofluorescence a permis de montrer qu'ils contiennent de l'albumine et des produits de sécrétion (particulièrement dans le cas des tubes de Golgi, d'où la taille des domaines). La localisation des moteurs n'a pourtant pas pu être menée à terme, peut-être à cause de la trop faible sensibilité des études par immunofluorescence ou bien parce que le nombre de moteurs nécessaires pour tirer le tube n'est pas suffisamment important. Nous verrons par la suite (au chapitre 5), que les expériences que nous avons réalisées sont en mesure de contourner ce genre de problème, de façon à mettre en évidence de façon quantitative la position des moteurs nécessaires qui tirent un tube.
X Inconvénients de l'utilisation d'extraits cellulaires
On peut finalement reprendre les arguments utilisés sur le problème du nombre inconnu de constituants impliqués dans la formation des tubes in vivo. En effet, les extraits contiennent énormément de protéines qui ennent ou non, mais il est impossible de comprendre quels sont les constituants minimaux nécessaires pour former un tube. On a même vu dans certains cas que des tubes pouvaient être obtenus sans MT. La meilleure façon de déterminer les constituants minimums est donc d'utiliser des éléments complètement purifiés ou artificiels et contrôlés. Il n'y aura alors plus de doute sur les constituants indispensables à la formation et à l'élongation des tubes.
38 B. Reconstitution in vitro des tubes de membrane
Fig. 1.20 – (A) Réseaux de tubes de Golgi tirés in vitro le long d'un réseau de MTs stabilisés (membrane purifiée à partir de foies de rats) observés en DIC. B.2 en utilisant uniquement les composants nécessaires
Faisant suite aux expériences in vitro, on peut supposer que les constituants absolument nécessaires seraient un réservoir de membrane, des MTs, des moteurs moléculaires et de l'ATP. Les premières expériences réalisées dans ce sens ont été réalisées par A. Roux et al. dans les groupes de Patricia Bassereau et Bruno Goud [Roux et al., 2002]. Pour pouvoir contrôler tous les constituants présents, les membranes purifiées ont été remplacées par des vésicules géantes unilamellaires (GUVs). Ce sont des bicouches lipidiques dont la composition est connue et contrôlée. De même, les extraits ont été remplacés par un tampon contenant uniquement des kinésines purifiées et de l'ATP. Dans ces premières expériences, les kinésines utilisées (possédant une biotine à l'extrémité opposée aux sites d'accrochage sur le MT) étaient accrochées à la membrane qui contenait aussi des lipides biotinylés grâce à des petites billes de latex couvertes de streptavidines (diamètre d'environ 100 nm) (fig. 1.21(A)). Les expériences de contrôle qui consistaient à enlever un seul des composants minimaux, soit : – les vésicules – les MTs – les kinésines, moteurs moléculaires effectuant le transport
Chapitre 1. De la cellule vivante aux systèmes biomimétiques A
B Fig. 1.21 – Schéma de la formation de réseaux de tubes de membrane. (A) Représentation schématique d'un tube de membrane tiré à partir d'une vésicule géante unilamellaire par des petites billes recouvertes de kinésines, le long d'un MT en présence d'ATP. D'après [Roux et al., 2002]. (B) Formation d'un réseau de tubes de membrane à partir d'une
icule,
le long d
'un
réseau de MTs
. D'après [Koster
et
al
.
, 2003]. – l'ATP, carburant pour les kinésines ont été réalisées et aucun tube n'a en effet pu être observé. Ceci prouve que ce système constitue bien un système minimal, mimant le trafic intracellulaire. On peut remarquer de plus que des tubes de membranes golgiennes biotinylées ont aussi pu être tirés dans des conditions similaires [Roux et al., 2002], en l'absence d'extraits cellulaires. Ces expériences ont permis de montrer que la seule action des moteurs moléculaires était suffisante pour déformer la membrane jusqu'à former un tube (fig. 1.22(a)). Ainsi, l'ensemble des composants impliqués dans la déformation des membranes au moment du "budding" (les protéines de manteau, les phosphoinositides, non présents dans les vésicules) ne sont a priori pas nécessaires. Cela ne signifie bien sûr pas que ces composants ne jouent pas un rôle in vivo, mais plutôt qu'ils interviennent à des étapes différentes du trafic, comme par exemple dans le recrutement des moteurs et du cargo à la surface de la membrane, dans le tri des molécules ou encore dans la régulation de ces mécanismes. On comprend ici tout l'intérêt qui suscite l'approche in vitro de la description du trafic de membrane puisqu'il serait, en théorie, possible de tester au cas par cas chacun des mécanismes présupposés (ou moins dans les cas faisant intervenir un petit nombre de composants), dans la mesure où il est possible de purifier et d'incorporer les protéines impliquées. Parallèlement aux expériences réalisées à l'Institut Curie, le groupe de Marileen Dogterom (AMOLF, Amsterdam) a aussi eu l'idée de reproduire in vitro, avec un système équivalent, les étapes principales de la formation d'intermédiaire de transport. Ils ont réussi à tirer des tubes de membrane partir de vésicules géantes, mais cette fois, sans utiliser de petites billes de latex pour attacher les moteurs aux lipides de la membrane [Koster et al., 2003]. Ils ont ainsi montré que les moteurs, 40 B.
Reconstitution in vitro des tubes de membrane
Fig. 1.22 – Réseaux de tubes de membrane. (a) Image d'un réseau de tubes de membrane (marquée en fluorescence) obtenue en fixant les moteurs sur des billes de latex. Projection de différents coupes effectuées en microscopie confocale. Barre=5 μm. D'après [Roux et al., 2005b]. (b) Image obtenue en vidéomicroscopie d'un réseau de tubes de membrane tiré à partir d'une vésicule fluorescente par des kinésines fixées directement à la membrane. Barre=10 μm. D'après [Koster et al., 2003]. en s'attachant directement à la membrane au niveau moléculaire, pouvaient la déformer sur des échelles de l'ordre du micron (fig. 1.22(b)). Les différences entre ces deux types d'expérience seront discutées au chapitre 5, dans le cadre d'une description complète de la formation des tubes. Dans les deux cas, il a été possible de faire des mesures cinétiques pour caractériser la dynamique de croissance des tubes, et de varier qualitativement les paramètres importants pour la formation de ces tubes : 1. la rigidité de courbure de la membrane (en changeant sa composition lipidique) 2. la tension de membrane 3. la quantité de kinésines attachées à la membrane. Cependant, comme ces différents paramètres n'étaient pas contrôlés précisément, aucune conclusion ne pouvait être tirée. La première partie de ma thèse a donc consisté à mettre au point un protocole qui permet de mesurer ou de contrôler l'ensemble des paramètres qui caractérisent le système. Il a ensuite été possible de décrire complètement la physique de formation et de croissance des tubes de membrane à la fois théoriquement et expérimentalement de façon cohérente, en faisant varier de façon indépendante toutes les paramètres importants. Résumé
Pour résumer ce qui a été dit dans ce chapitre, j'ai cherché à montrer la complexité du trafic intracellulaire, ainsi que les outils qui sont actuellement à notre 41 Chapitre 1. De la cellule vivante aux systèmes biomimétiques disposition pour étudier ce trafic. Dans une approche "biologique", la première étape de compréhension du trafic consiste à déterminer quelles sont les protéines ou composants impliqués dans un phénomène observé, par exemple la déformation de la membrane. Il faut ensuite pouvoir les suivre in vivo avec une sensibilité et des résolutions spatiale et temporelle suffisantes. Les observations nécessitent souvent des modifications de la cellule qui peuvent elle-mêmes influencer le mécanisme étudié. Les interactions entre les différents composants et entre ceux-ci et les membranes sont multiples, et tous les composants impliqués ne sont probablement pas identifiés. Les mécanismes qui régissent l'ensemble du trafic moléculaire sont donc loin d'être éclaircis. L'intérêt des expériences in vitro suggérées par un problème biologique précis, présenté dans la deuxième partie, est de pouvoir tester directement les mécanismes proposés. Dans le cas de la formation des intermédiaires de transport intervenant dans le trafic de membranes entre les différents compartiments de la cellule, nous allons voir au cours de cette thèse quelles réponses peuvent apporter les expériences réalisées in vitro sur un système minimal mimant la formation de ces intermédiaires de transport. Je me suis particulièrement focalisée sur le rôle des moteurs et des paramètres physiques qui décrivent la membrane. Le système, bien que simplifié, permettra d'apporter une nouvelle approche du trafic, en proposant des mécanismes physiques qui sont souvent masqués par des mécanismes moléculaires. Chapitre 2 Principales caractéristiques des constituants impliqués dans la formation de tubes de membrane.
Le but de ce chapitre est de décrire les différents constituants du système minimal mimant la formation de tubes mis au point auparavant par A. Roux ou G. Koster et que j'ai également développé dans ma thèse : les microtubules (MTs), les kinésines et les vésicules géantes unilamellaires qui modélisent les membranes des organites. Dans cette partie, je m'attacherai surtout à décrire les principales propriétés biochimiques et physiques des moteurs et des membranes qui interviennent dans la dynamique d'extraction et de croissance des nanotubes de membrane.
A Les microtubules, rails du trafic intracellulaire
Avec les filaments d'actine et les filaments intermédiaires, les microtubules forment la troisième classe principale de filaments du cytosquelette. Ces réseaux complexes permettent l'organisation interne dans l'espace des cellules eucaryotes.
A.1 Structure d'un microtubule
Les MTs sont formés par auto-assemblage d'une molécule dimérique : la tubuline. Cette molécule a une taille de 8 nm et est constituée de deux sous-unités α et β. Les dimères s'alignent selon des protofilaments linéaires en alternance autour d'un noyau central qui apparaı̂t vide sur les images de microscopie électronique, formant ainsi une structure tubulaire creuse (fig. 2.1 (A-B)). Un MT est alors composé de 13 protofilaments généralement, sauf cas particulier [Eichenlaub-Ritter and Tucker, 1984], ce qui lui confère une grande stabilité thermique. Les protofilaments sont assemblés en parallèle1, avec la même polarité, pour former un cylindre de 25 nm de diamètre (fig. 2.1 (C-E)) [Amos and Baker, 1979]. 1 les MTs contenant un autre nombre que 13 protofilaments ne
Chapitre 2. Principales caractéristiques des constituants impliqués dans la formation de tubes de membrane. Fig. 2.1 – Structure d'un microtubule, d'après [Alberts et al., 2002] (A) Micrographie électronique d'un MT observé en coupe transversale montrant son anneau de 13 sous-unités distinctes, chacune correspondant à une molécule de tubuline différente (α ou β) (Images : Richard Link). (B) Micrographie électronique à congélation d'un MT assemblé in vitro (Richard Wade).(C-D) Représentations schématiques d'un MT montrant la façon dont les molécules de tubuline sont associées pour former la paroi cylindrique (d'après les dessins fournis par Joe Howard). Notons qu'un MT peut aussi être vu comme un assemblage de trois hélices de monomères imbriquées ([Howard, 2001], p 126). (E) Schéma d'un protofilament dont est composé un MT, lui-même composé de dimères de tubuline. Le MT a donc une structure polaire résultant de l'asymétrie structurale qui induit une différence de réactivité entre ses deux extrémités ; il est possible de distinguer l'extrémité moins (à croissance lente) de l'extrémité plus (à croissance rapide) [Alberts et al., 1995]. Cette structure hautement dynamique du MT nécessite un apport d'énergie permanent qui résulte de l'hydrolyse du GTP (Guanosine Triphosphate) fixé par les sous-unités sous leur forme active ; c'est un processus dissipatif [Tabony and Job, 1990, Mitchison, 1993]. En effet la phase de croissance (polymérisation) d'un MT se fait par addition de dimères de tubuline portant du GTP aux extrémités de celui-ci. Comme le GTP est presque immédiatement hydrolysé, le MT est essentiellement constitué de tubuline-GDP qui a tendance à déstabiliser sa forme linéaire. Les phases de croissance sont donc suivies de phases de catastrophe (ou dépolymérisation) très rapides où la tubuline-GDP est éjectée. Cette alternance de phases de polymérisation et dépolymérisation constitue une "instabilité dynamique"; elle a été observée à la fois in vitro [Mitchison and Kirschner, 1984], et in 44 A. Les microtubules, rails du trafic intracellulaire vivo [Sammak and Borisy, 1988] (fig.2.2).
Fig. 2.2 – Instabilité dynamique d'un microtubule. La tubuline-GTP est incorporée aux extrémités d'un MT lors de la phase de polymérisation. Le GTP est hydrolysé et la phase de polymérisation est suivie par une phase de dépolymérisation très rapide où la tubuline-GDP est éjectée. Cette dernière est ensuite régénérée en tubuline-GTP (adaptée de [Desai and Mitchison, 1997] et du site internet www.erudit.org.
est possible de bloquer la dynamique de croissance et décroissance des MTs en utilisant une drogue, le taxol, très utilisée comme médicament anti-cancéreux. Le taxol est une molécule qui se lie étroitement aux MTs et les stabilise en bloquant leur dépolymérisation. Nous l'avons utilisée lors de la formation de MTs stabilisés in vitro (voir le ch4. §A) ; la drogue est ajoutée quand le microtubule a atteint sa longueur d'équilibre (voir fig. 2.3). La conséquence principale pour les MTs de cette structure composée de protofilaments alignés est leur grande rigidité. Le paramètre le plus adapté pour décrire cette propriété physique importante est la longueur de persistance qui mesure la longueur typique sur laquelle la courbure due aux fluctuations thermiques devient appréciable et plus exactement, la distance au-delà de laquelle l'ordre orientationnel le long du MT est perdu. A.2 Fonctions dans la cellule
Les MTs ont un rôle essentiel dans la cellule, puisqu'ils interviennent dans son organisation interne et plus particulièrement dans le positionnement de ses organites [Cole and Lippincott-Schwartz, 1995], dans sa forme
45 Chapitre 2. Principales caractéristiques des constituants impliqués dans la formation de tubes de membrane. Fig. 2.3 – Un mélange de tubuline, de tampon et de GTP est chauffé à 37 ̊C au temps zéro. La quantité de microtubules polymérisés, mesurée par diffraction de la lumière, suit une courbe sigmoı̈dale.
Pendant la phase de latence, des molécules de tubuline individuelle s'associent pour former des agrégats métastables, dont certains poursuivent leur croissance et forment des microtubules. La phase de latence reflète la barrière cinétique de ce processus de nucléation. Pendant la phase d'élongation rapide, des sous-unités s'ajoutent aux extrémités libres des MTs existants. Pendant la phase en plateau, la polymérisation et la dépolymérisation sont en équilibre. Pour simplifier, on ne représente les sous-unités s'ajoutant et se retirant au MT qu'à une seule extrémité (d'après [Alberts et al., 1995]). [Kirschner and Mitchison, 1986], ainsi que dans certaines de ses fonctions. Ils composent notamment le fuseau mitotique [Inoue, 1981] et permettent de séparer les chromosomes des deux cellules filles pendant la mitose [Salmon et al., 1984]. Plus récemment, il a été montré que la dynamique de croissance/décroissance des MTs peut générer des forces dans la cellule (voir par exemple [Grill et al., 2003] et la revue [Dogterom et al., 2005]), ce qui permet de mieux comprendre leur rôle dans la mitose par exemple. Ils servent aussi de rails pour le transport des cargos entre les différents organelles ; le déplacement des cargos est alors assuré par les moteurs moléculaires associés aux MTs qui peuvent se déplacer dans une direction ou l'autre suivant le type de moteur. Il existe deux classes de moteurs : les dynéines, qui se déplacent majoritairement vers l'extrémité moins (de la périphérie de la cellule vers le noyau), et les kinésines qui se déplacent majoritairement vers l'extrémité plus (du noyau vers la périphérie) (fig.2.4). Mallik et Gross [Mallik and Gross, 2004] proposent une étude comparative de ces deux classes de moteurs (kinésines et dynéines) et des myosines (moteurs moléculaires associés aux filaments d'actine) : les auteurs concluent que les kinésines sont 46 B. Les kinésines conventionnelles, moteurs moléculaires qui transportent les cargos
Fig. 2.4 – Distribution des MTs dans la cellule. (a) Cellule en interphase fixée avec un anticorps anti-tubuline fluorescent. Les microtubules apparaissent fluorescents et s'étendent du centrosome (près du noyau) vers la périphérie de la cellule. (b) Diagramme représentant une cellule. Le centrosome est en jaune ; les cargos allant du centre vers la
phérie sont en rose et les cargos allant de la périphérie vers le centre (transport rétrograde) en vert, d'après [Howard and Hyman, 2003]. des transporteurs robustes et efficaces2, ce qui laisse peu de place à la régulation de leur fonction. En revanche, comme les dynéines sont des moteurs moins robustes et moins efficaces (car très complexes), elles nécessitent un plus grand nombre de protéines associées et ne peuvent fonctionner qu'en grande quantité, ce qui permet un plus grand contrôle de leurs fonctions. Il est donc possible que la cellule contrôle le trafic en ajustant précisément la contribution relative des dynéines par rapport aux autres moteurs.
B Les kinésines conventionnelles, moteurs moléculaires qui transportent les cargos B.1 Structure, fonction et propriétés physiques
La super-famille des kinésines, dont les principaux membres sont présentés dans [Hirokawa, 1998], se compose de nombreuses sous-familles récemment répertoriées avec une nouvelle nomenclature [Lawrence et al., 2004]. En effet, l'étude systématique du génome des différents organismes entraı̂ne souvent la mise en évidence de nouvelles sortes de kinésines ; différents noms sont apparus pour décrire les mêmes moteurs d'où l'idée de faire une nouvelle classification, unique et reconnue 2 car un moteur unique peut transporter un cargo sur une longue distance
47 Chapitre 2. Principales caractéristiques des constituants impliqués dans la formation de tubes de membrane. par tous, pour limiter les confusions. Comme les autres moteurs molé
culaires, la kinésine est une
proté
ine qui utilise l'énergie de l'hydrolyse de l'ATP pour générer
des
mou
vements et des forces
. B.1.1 Fonctions dans la cellule
Les kinésines sont impliquées entre autres dans le transport de membranes, la mitose et la méiose, le transport de l'ARN et des protéines, la genèse de cils et de flagelles [Gibbons, 1981], la transduction du signal, ainsi que dans la dynamique de polymérisation des MTs [Goldstein and Philp, 1999]. Plus généralement, les kinésines sont impliquées dans beaucoup de processus de génération de forces et de mouvements. Il existe par exemple 6 kinésines distinctes dans la levure Saccharomyces cerevisiae, 16 chez les nématodes C. Elegans et 40 chez l'homme [Alberts et al., 2002]. La caractérisation fonctionnelle des différents moteurs moléculaires pourrait aider à répondre aux questions de ciblage et de régulation : comment un moteur trouve-t-il son cargo? Qu'est-ce qui le dirige vers la bonne cible? Comment son activité est-elle régulée durant le processus? [Schliwa and Woehlke, 2003]. Nous nous bornerons dans ce manuscrit à l'étude des kinésines conventionnelles (nommée kinésine-1 dans la nouvelle nomenclature), car elles sont impliquées dans le trafic intracellulaire d'intermédiaires de transport le long des MTs ; ce sont donc celles que nous avons utilisées pour mimer un tel transport. Elles ont aussi d'autres fonctions dans la cellule, moins directement liées à notre sujet : les kinésines-1 sont par exemple impliquées dans le transport d'organites (mitochondries, reticulum endoplasmique) et participent à l'organisation de l'appareil de Golgi (voir la revue [Lane and Allan, 1998]). La kinésine-1 joue aussi un rôle dans le transport de cargos protéiques non membranaires (la vimentine par exemple), et dans la régulation locale de l'assemblage des filaments intermédiaires [Prahlad et al., 1998
| 5,403
|
02/hal.inrae.fr-tel-02822353-document.txt_15
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 9,132
| 14,028
|
2. Les autres enseignements et les autres professeurs
Le personnel enseignant de l'Institut est très mal connu. Néanmoins, le professeur d'agriculture, lorsque ce n'est pas Mathieu de Dombasle lui-même, est le moins mal connu. Lorsqu'il abandonne son cours d'agriculture à un autre enseignant, Mathieu de Dombasle n'assure plus que le « tour de plaine » et le suivi des différentes activités pratiques. Délaisser l'enseignement de la théorie n'a jamais gêné l'agronome. En revanche, les activités pratiques sont son domaine réservé. La théorie agricole est professée par Chrétien de Roville puis par M. Antoine, sans que l'on en sache beaucoup plus sur ces deux enseignants. Par la suite, c'est un ancien élève qui est chargé de transmettre la théorie agricole. Il s'agit de J.-C. Fawtier, ancien élève, proche collaborateur de Mathieu de Dombasle et qui porte le titre de « chef d'Institut ». De 1830 à 1835 la tâche est assurée par L. Moll qui devient, plus tard, professeur au conservatoire des arts et métiers et auteur, avec A. Gayot, d'une Encyclopédie générale de l'agriculture en treize volumes, éditée en 1864. Toutes les matières ne sont pas enseignées par un professeur aussi prestigieux, tandis que certains enseignements n'ont jamais obtenu de professeur titulaire. Toutes les matières annoncées dans le programme de l'Institut ne sont pas enseignées par un professeur spécifique65. Plusieurs notions sont regroupées et enseignées par un seul professeur, comme, par exemple, la géométrie, l'arpentage et la levée de plan ; disciplines qui sont très proches et complémentaires. Seules les matières les plus spécialisées ont toujours été ense es par un professeur averti. La botanique en est un exemple bien que le jugement d'E. Lelong, élève en 1838, soit très critique : « La botanique était professée par le père Bard, un ancien troupier, bonhomme, plein d'humour, déjà très vieux, usé comme botaniste, grand conteur, grand ami des digressions et oubliant volontiers la tribu des Ombellifère et la cigüe () plus occupé de narrer le siège de Gaëte et les balles qui sifflaient à son oreille à cette action mémorable, qu'à inviter ses élèves aux mystères de la fécondation des plantes et aux arcanes de la physiologie végétale »66. L'importance du bétail est bien mise en valeur à Roville. Sa survie et, donc, sa productivité, dépendent des soins que le paysan sait 65 66 A.D.M.M., 7 M 37, prospectus, 30 octobre 1828. E. Lelong, Mathieu de Dombasle et son école. lui administrer. Le vétérinaire du canton d'Haroué, qui n'est pas professeur au sens strict, présente périodiquement son savoir-faire aux élèves. On ne sait ni quand il vient à Roville ni combien de fois par an. Les cours sont saisonniers, ce qui permet à des professionnels de proposer des conférences lors des périodes calmes de l'hiver. Malheureusement, on ne possède aucun exemple permettant de vérifier cette hypothèse. La comptabilité est enseignée par le secrétaire-comptable de la ferme exemplaire qui s'appuie sur les comptes de celle-ci pour une mise en conditions réelles. Les sciences accessoires font l'objet de cours de forme plus traditionnelle. Ces connaissances sont utiles au futur chef de domaine pour parfaire sa culture. Dés 1821, Mathieu de Dombasle prévoit des cours d'orthographe, d'arithmétique, d'arpentage, de levée de plan, de comptabilité agricole, de botanique, de minéralogie et des notions de chimie67. De plus, l'agronome pense qu' « il est bon que [les élèves] connaisse[nt] la nature des diverses variétés de terres qu'il[s] cultive[nt] »68. La plupart de ces matières a été effectivement enseignée à Roville. Mais peu de précisions de contenu et d'organisation ont été données par Mathieu de Dombasle. Des notions de géométrie, de mécanique et l'apprentissage de langues étrangères s'ajoutent à la liste. L'art vétérinaire est expliqué par le vétérinaire du canton. Tous ces cours sont dispensés pendant l'hiver sans que l'on sache très bien le temps réel qui leur est consacré. La botanique est enseignée toute l'année ; l'Institut possède un jardin botanique avec 1200 espèces différentes. L'effectif enseignant n'est fixe et les postes sont précaires. Les enseignants sont peu nombreux et Mathieu de Dombasle les évoque rarement dans ses écrits. Toutefois, il essaye de recruter des professeurs hautement qualifiés comme l'exemple de L. Moll le prouve. Les autres catégories de personnel semblent néanmoins mieux considérées et jugées plus importantes aux yeux du praticien qu'est Mathieu de Dombasle. Jamais il n'est fait mention, dans quelque texte que ce soit, du nombre de professeurs présents à Roville à un moment donné. Mathieu de Dombasle a été seul durant les premières années. Par la suite, la présence, plus ou moins régulière, de trois, peut-être quatre, professeurs semble l'hypothèse la plus plausible. Paradoxalement, les enseignants ne sont pas les premiers limogés lors des crises économiques qui jalonnent cette première moitié du XIXe siècle, leur effectif n'augmente guère et quelques postes sont créés. 350 professeurs69. Sans aide les professeurs présents auraient été, sans doute, limogés. La rémunération des enseignants est inconnue, mais elle a dû être faible. Le statut d'enseignant à Roville est donc précaire, peu attrayant et la pratique pédagogique, dans une telle situation de précarité, n'a pas dû être aisée. Chargé de la théorie, la tâche de professeur n'est aucunement valorisée et reléguée au second plan. Mathieu de Dombasle explique cette place marginale réservée aux cours théoriques et à la science. Il ne remet pas en cause la nécessité de la science ; sa vie durant il reste un « chercheur infatigable », publiant beaucoup70. Cependant, il adopte une attitude prudente par rapport à la science de son temps. Trois explications à cela : la chimie n'en est alors qu'à ses balbutiements, les hommes de science offrent trop souvent l'image d'hommes éloignés du terrain et, enfin, son objectif est de donner à ses élèves de bonnes chances de réussite dans la conduite de leur exploitation et non d'augmenter leur niveau intellectuel ; il juge qu'il faut leur donner des connaissances sûres, éprouvées et non des connaissances hypothétiques qui risquent de les mener à l'échec. Se fondant sur son expérience Mathieu de Dombasle écrit : « La science agricole m'a été plus nuisible qu'utile dans les premières années de l'exploitation et jusqu'à ce que j'eusse acquis assez de pratique pour me diriger dans l'application des doctrines que j'avais puisées dans les livres () les théories deviennent le guide le plus trompeur pour celui qui ne sait pas appeler à son secours l'observation des faits »71. Et au sujet de la chimie, bien qu'il pratique toujours, il s'exprime ainsi : « quant à la chimie appliquée à l'agriculture, c'est comme je l'ai déjà montré, une science à créer et non à enseigner »72. Tant que les sciences ne sont pas « assises » sur des fondements plus solides Mathieu de Dombasle ne considère pas leur enseignement nécessaire et dans tous les cas, secondaire par rapport à la pratique. Sa conception est fort proche quand il s'agit de littérature agricole. C. Ecrire l'agronomie : une transmission par l'écrit
Mathieu de Dombasle est l'auteur de très nombreux ouvrages ayant un rapport avec l'agriculture et l'agronomie. Durement marqué par la maladie, son acuité visuelle a souffert et 69 A.D.M.M., 7 M 37, lettre de Mathieu de Dombasle au préfet de la Meurthe, 28 novembre 1838. L. Villermé, « Mathieu de Dombasle, sa vie, ses oeuvres, son influence », Le Correspondant, oct. 1864. Sur l'importance quantitative des publications de Mathieu de Dombasle, nous renvoyons à la liste de ses travaux, répertoriés en bibliographie. 71 Mathieu de Dombasle, A. A. R cité par J. Boulaine, J.-P. Legros, op. cit., p. 75. 72 Ibid. 70 351 cette vue mauvaise l'a contraint, la plupart du temps, à dicter ses textes à son secrétaire plutôt qu'à écrire lui-même. Les Annales agricoles de Roville sont l'oeuvre pour laquelle il est le plus estimé mais Mathieu de Dombasle a aussi écrit et publié sur les sujets les plus divers73. On touche ici à un paradoxe essentiel de l'homme et de sa doctrine : il refuse la connaissance exclusive de l'agriculture à travers les livres, mais il rédige une masse immense de pages au sujet de l'agriculture. Dans ses écrits il ne cesse de répéter que seuls ils ne suffisent pas mais il s'est très bien rendu compte que ce support est un moyen de communication indispensable. D'ailleurs, dès avant l'expérience de Roville, Mathieu de Dombasle est un publiciste reconnu et estimé. Mathieu de Dombasle insiste sans cesse sur les vertus de l'exemple, il en propose donc à foison aux agriculteurs. La littérature agricole est bien première forme de diffusion des connaissances et des progrès agricoles74. La matérialité du livre même influe sur la diffusion des écrits, sur les modalités de lecture et sur l'appréhension du sens de ce qui est écrit, d'où l'importance de varier les supports écrits à destination des praticiens75. Mathieu de Dombasle rédige essentiellement des ouvrages et des notices, et sur toutes les expériences qu'il peut mener ainsi que sur tous les sujets pour lesquels il se juge compétent. C'est pourquoi, il se penche aussi bien sur la question des sucres que sur L'avenir de l'Algérie. L'autre succès incontestable est la publication du Calendrier du Bon Cultivateur qui connaît des dizaines de rééditions, dont nombre à titre posthume. 73 Voir la liste des oeuvres de Mathieu de Dombasle en bibliographie. Cf. notre article : F. Knittel, « La diffusion d'une pédagogie agricole : les écrits de Mathieu de Dombasle », A. E., 2002-1, p. 131-143, qui est une première ébauche des idées développées dans le présent paragraphe. 74 C. Aspe, « Presse agricole locale et formation permanente des agriculteurs », A.H.E.A., n°1, 1986, p. 133-142. 75 Cf. J. M. Goulemot, L'amour des bibliothèques, Paris, le Seuil, 2006, p. 280. 76 De l'impôt sur le sucre indigène. Nouvelles considérations et Du système des poids et mesures, tous deux édités chez Mme Huzard à Paris, comme la majeure partie des ouvrages de Mathieu de Dombasle. 77 Page de titre des A. A. R. en annexe 2. La diffusion des Annales agricoles de Roville est relativement importante : chaque volume est diffusé à environ 1000 exemplaires78. Mathieu de Dombasle cherche à s'adresser à l'élite agricole. Changer la mentalité des grands exploitants lui importe le plus pour entreprendre la modernisation de l'agriculture. Les lecteurs des Annales agricoles de Roville sont confrontés à la multitude des arguments que le célèbre agronome leur soumet. Cependant, Mathieu de Dombasle adapte son style à tous les types de lecteur, évitant les tournures trop scientifiques. A tel point que le « Calendrier [du Bon Cultivateur] est devenu le catéchisme dans lequel les enfants de nos villages ont appris le langage du progrès agricole »79. De 1810 à 1842, Mathieu de Dombasle a publié près de 39 ouvrages, ainsi que de nombreux articles, dont la plupart ont connu plusieurs rééditions. En moyenne, chaque oeuvre a été rééditée trois fois, ce qui est considérable. Son gendre et son petit fils ont aussi édité ou réédité, à titre posthume, quelques oeuvres comme le traité d'agriculture en cinq volumes, vers 1862. L. Villermé, dans Le Correspondant80, juge certains passages archaïques et aurait aimé une réorganisation de l'ouvrage comme l'aurait sans doute entreprise Mathieu de Dombasle. Son lectorat apparaît restreint, néanmoins, les conseils donnés sont suivis puisque la méthode de fumure de Mathieu de Dombasle est devenue une habitude dans les campagnes françaises81. Mathieu de Dombasle attache une grande importance à la lisibilité de son discours, La richesse du cultivateur ou les secrets de J.N. Benoît sont un bon exemple de la pédagogie dont il fait preuve dans ses écrits. C'est une illustration de la « méthode Dombasle » fondée l'observation et l'exemple. Il présente un personnage de plume et le fait dialoguer avec son cousin (tout aussi fictif). Tout en donnant l'impression que ses protagonistes existent réellement, comme beaucoup d'autres avant lui, Mathieu de Dombasle, à travers les explications que J. N. Benoît donne à son cousin, propose exemples et conseils aux agriculteurs. Ce dialogue imite les dialogues antiques tels Les travaux et les jours d'Hésiode et correspond à une pratique à la mode à laquelle François de Neufchâteau a aussi
78 M. Duvigneau, Les journaux d'agriculture pratique et d'économie rurale entre 1828 et 1848 : propagation des progrès agricoles dans la France des notables, Thèse d'archiviste-paléographe, Ecole des Chartes, 1991, 3 vol. ; compte-rendu par M. Boulet in A.H.E.A., n°4-5, p. 126-127. Cf. 353 eu recours82. Cependant, E. Lelong reproche à cet ouvrage d'avoir été écrit alors que Mathieu de Dombasle n'était pas encore praticien83. La première édition est effectivement antérieure à la création de la ferme de Roville. Mais R. Cercler insiste sur la rigueur et l'honnêteté scientifique du fermier de Roville : « Publiciste agricole Dombasle () ne consigna dans ses ouvrages que le résultat d'expériences vécues, ce qui, d'emblée, lui assura la confiance du monde agricole »84. Une dernière restriction, et non des moindres, peut être apportée à ce mouvement de diffusion de la doctrine agronomique dans les campagnes. L'alphabétisation des paysans n'est pas encore générale à cette époque bien que la capacité de lecture, difficile à évaluer, soit sans doute plus répandue qu'on ne le pense. Les pratiques de lecture collective permettent que la pensée de l'auteur soit connue bien au-delà du cercle restreint des lecteurs. Tous n'ont pas accès à l'oeuvre de Mathieu de Dombasle mais plus parce que celle-ci à un coût important que par un manque absolu de compétence. Mathieu de Dombasle en a conscience très tôt et, dans une lettre au préfet de la Meurthe il évoque un texte « qui sera joint au calendrier [du bon cultivateur] et qu'[il] se propose de faire livrer à part, afin de le répandre à bas prix dans les campagnes »85. Cela n'a pas dû représenter un grand obstacle aux yeux de l'agronome puisqu'il a toujours considéré que le progrès provient des grands domaines dirigés par des agriculteurs, sinon érudits, pour tout le moins, lettrés. Un certains dédain est affiché pour le petit paysan qui, pense Mathieu de basle, est toujours porté à imiter le gros exploitant voisin. Mathieu de Dombasle préfère l'apprentissage par la pratique mais les lectures sont indispensables, sans être suffisantes. Elles apportent les suppléments théoriques indispensables à la formation d'un chef de domaine éclairé. Il pense que les livres et les écrits « [sont] le moyen le plus efficace et le plus puissant de rendre commun à un grand nombre d'hommes les connaissances acquises par un seul »86. Il insiste aussi sur le choix judicieux des lectures. Il faut lire uniquement les meilleurs ouvrages, ceux d'A. Thaër par exemple87, comme il le conseille à ses élèves. Avec la « clinique agricole », la science agricole devient l'« étude et l'observation des faits que nous offre la nature ». 88 R. Cercler, op. cit. Au-delà de l'influence physiocratique, la théorie économique classique de l'anglais A. Smith, exposée dans ses recherches sur la nature et les causes de la richesse des nations (1776), commence à structurer les mentalités. Cf. supra, chapitre V et, infra, chapitre XII. 89 355
III. Les élèves de l'Institut agricole
L'Institut agricole de Roville est né d'une véritable demande de formation. Au début, c'est une demande fort marginale émanant de quelques fils d'agriculteurs aisés, mais une demande réelle illustrant l'absence de structures de transmission du savoir agricole. Ces futurs agriculteurs ne se sont pas satisfaits de la transmission empirique du savoir paternel. Ainsi Mathieu de Dombasle a-t-il décidé d'accueillir ces jeunes gens. Rapidement, il conçoit un règlement, précis et rigoureux, qui organise la vie matérielle et intellectuelle des élèves. Ces textes renseignent sur les souhaits de l'agronome mais il serait naïf de croire que la vie quotidienne a été en tous points conformes à ces textes. C'est pourquoi, les témoignages d'anciens élèves permettent de réajuster notre perception de la vie quotidienne à Roville. A. Le temps des études Mathieu de Dombasle a dû rapidement déterminer le temps nécessaire à la formation qu'il propose aux futurs agriculteurs. Le cycle complet des études se déroule sur deux années, mais le fermier de Roville ne souhaite pas fixer cette durée de façon trop rigide. Les élèves peuvent bénéficier de l'instruction dispensée à l'Institut pour une période plus courte : 6 mois, 3 mois ou 1 mois. L'influence de la scolarité de Mathieu de Dombasle à l'Ecole centrale de Nancy, où la liberté dans le choix des études et de leur durée a prévalu, peut expliquer cette souplesse90. De la même façon les élèves se rendent à Roville à leur gré, aucune date de « rentrée des classes » n'étant définie. Les élèves sont « admis à toutes les époques de l'année »91. Le temps scolaire à Roville est donc très libre. Mathieu de Dombasle offre aux fils d'agriculteurs une grande flexibilité prenant en compte les disponibilités, parfois réduites, de ces jeunes hommes dont le travail est souvent nécessaire sur l'exploitation familiale, malgré le besoin de formation. C'est une facilité donnée aux élèves mais aussi, et surtout, un moyen d'intéresser leur famille. Ainsi, à Roville, certains viennent chercher une formation 90 Sur le passage de Mathieu de Dombasle à l'Ecole centrale de Nancy cf. supra chapitre III et F. Knittel, « De l'Ecole centrale à la fondation d'une industrie sucrière : la jeunesse « révolutionnaire » d'un agronome », L'innovation révolutionnaire, CTHS, 130e Congrès national des Sociétés historiques et scientifiques, Grenoble, 24-29 avril 2006, à paraître. 91
de Dombasle, A. A. R., t. IX, 1837. 356 initiale et s'y consacrent plusieurs années alors que d'autres désirent se perfectionner ou découvrir une technique ou un matériel pendant une période plus courte qui ressemble, en fait, à ce qu'aujourd'hui on entend par un « stage ». Chaque élève décide de son temps de formation donc de l'étendue de ses besoins de formation. Auguste Bella (1777-1856) est venu à Roville en 1825, à l'âge de 48 ans (le même âge que Mathieu de Dombasle). Il est venu observer les pratiques de Mathieu de Dombasle pour s'en inspirer et fonder à son tour l'école d'agriculture de Grignon l'année suivante. Une grande partie des « élèves » ou « stagiaires » de Roville ne sont restés qu'une brève période, ce qui s'explique par l'âge avancé de certains. Malheureusement, Mathieu de Dombasle n'a pas dressé de statistiques à propos de la durée du séjour de ses élèves. On ne possède pas non plus de registre ou une liste fournissant les indications suffisantes pour établir cette statistique, fort intéressante pourtant pour mesurer l'attrait de l'établissement et son impact sur le monde agricole. Il est aussi impossible, du fait de l'état des sources, de déterminer si un élève est venu plusieurs fois à Roville. Savoir si après une formation initiale des stages périodiques, plus courts, d'approfondissement ou de mise à niveau, ont eu lieu apporterait un éclairage précieux pour, encore une fois, évaluer l'importance de l'Institut pour le monde rural de l'époque. Aucun cycle de formation ne peut être envisagé dans un tel système. Mathieu de Dombasle s'adresse à chacun individuellement selon ses besoins. Même si les élèves sont regroupés lors des conférences et cours, a n'a les mêmes attentes. En 1821, l'agronome lorrain évoque une division en trois classes92, mais l'absence de classe dans les faits prouve l'adaptation de Mathieu de Dombasle aux spécificités du monde rural. Pour autant, l'absence de classe, de « rentrée des classes », et même de durée de formation fixe, n'a pas signifié l'anarchie. Un emploi du temps est établi par le maître et imposé aux élèves. L'étude est pour Mathieu de Dombasle essentielle, il y consacre la plupart de son temps : « tout dérangement à ses habitudes lui était très désagréable, et le mettait visiblement mal à l'aise »93. C'est un ascète qui organise son temps de manière rigoureuse. 357 liberté dont [les élèves] jouissaient, a quelquefois occasionné des désordres »94. Sans doute est-ce pour cette raison qu'en 1828 Mathieu de Dombasle organise la société des élèves dont les missions sont de faire naître un esprit de corps et une vie sociale parmi les élèves, de leur permettre de gérer une partie de l'organisation de leurs études (préparation des séances hebdomadaires de questions pour le « tour de plaine ») et certains problèmes de discipline. Le président en est élu parmi trois candidats proposés par Mathieu de Dombasle, puis le secrétaire est coopté par ses camarades. C'est lui qui est chargé de consigner par écrit toutes les discussions entre les élèves lors des réunions de la société. On ne connaît pas la fréquence des réunions de la Société des élèves, sans doute ont-elles eu lieu au minimum une fois par semaine pour préparer la conférence agricole. Mais on peut aussi imaginer une réunion quotidienne. La société des élèves est une structure grâce à laquelle les élèves « s'autogèrent ». En matière d'enseignement Mathieu de Dombasle est libéral mais il cherche le compromis entre liberté et ordre, en proposant un cadre structurant. La semaine commence par l'assistance, le lundi matin, au rapport général des travaux de la semaine précédente. Un bilan en est dressé et des objectifs pour la semaine sont fixés par Mathieu de Dombasle et ses « chefs de culture ». Quelques élèves, désignés à tour de rôle lors des réunions de la société des élèves, y assistent. Ils sont ensuite chargés de faire un compte rendu détaillé aux autres élèves. La présence de quelques individus (deux peut-être?) permet d'éviter le désordre occasionné par la présence de tous. La journée d'étude se déroule ensuite selon les différentes séquences prévues. L'emploi du temps est identique pour chaque jour. Il n'est modifié qu'en fonction des saisons et des gros travaux agricoles95. L'activité essentielle est la lecture d'ouvrages d'agronomie. Ce n'est pas l'aspect fondamental de la pédagogie de Mathieu de Dombasle mais c'est ce qui prend le plus de temps. Afin de faciliter l'accès aux périodiques, un « fond d'abonnement de lecture » est mis en place. Il est alimenté par les élèves qui versent 2 F par mois et par le directeur qui s'engage à verser 50 F par an. Une sorte de bibliothèque de périodiques est ainsi constituée. et la fréquence des emprunts nous sont donc inconnus. La matinée est consacrée aux lectures mais aussi au « tour de plaine » que l'on a déjà évoqué. La seule pause accordée par le maître pendant la journée est prise lors du « dîner » (déjeuner). Celui-ci est pris en famille et excède rarement 35 minutes. Il semble que les élèves aient mangé à la même table que Mathieu de Dombasle et ses deux enfants. On imagine un repas cérémonieux marqué par l'habitude. L'après-midi est consacrée soit aux cours théoriques, en hiver, soit à l'observation des principaux travaux, complétée par une période consacrée à la lecture. La majorité des cours théoriques débute le premier novembre et dure environ quatre mois, jusqu'en février-mars. Toutefois, certaines matières sont enseignées à d'autres moments : la physiologie végétale est enseignée pendant le printemps et l'été (suivant le cycle de la nature), la géométrie au mois de juillet, la botanique, l'arpentage, les notions de physique et de chimie, la culture des arbres forestiers toute l'année. En ce qui concerne l'enseignement de l'agriculture un cours est donné en été et deux en hiver96. Chaque soir, la journée se termine par le compte rendu, ou ordre, des responsables de travaux. Un bilan de la journée est ainsi dressé. Deux élèves sont présents et écoutent les conseils que le maître donne à ses « chefs de culture » pour les tâches du lendemain. Les deux élèves renseignent ensuite leurs camarades. Une fois le repas pris à la ferme les élèves rejoignent l'habitation de Roville où ils sont hébergés. Tous doivent avoir regagné leur logis à 21h00, « couvre-feu » instauré par Mathieu de Dombasle, avec la collaboration des habitants du village. Les élèves partagent leur temps entre l'étude et la « pratique (plutôt une observation) des travaux de la culture »97. Après deux années d'apprentissage, ou moins, à ce régime, l'emploi du temps n'ayant quasiment pas varié, aucun examen n'a lieu et aucun diplôme n'est délivré. Les élèves ont été formés à une pratique de direction de domaine directement applicable dans une exploitation agricole. C'est donc leur pratique ultérieure qui sanctionne leur formation non un examen formel. A. D. M. M., 7 M 37, prospectus de l institut agricole, 30 octobre 1828. A. D. M. M., 7 M 37, ibid.
: Aucun temps n'a été rédigé et distribué aux élèves. Il s'agit ici d'une reconstitution à partir des multiples indications dispersées dans la documentation. Matin : *« Tour de plaine » bref avec six élèves (à tour de rôle) *Conférence agricole ou « tour de plaine » général deux fois dans la semaine *Lecture Midi : *Repas (environ 35 minutes) Après-midi : *Lecture (ouvrages d'agronomie essentiellement) *Cours théoriques : agriculture générale, botanique comptabilité (selon la saison) *Observation des pratiques agricoles (récoltes, labours, entretien du matériel) Soir : *Ordre (deux élèves à tour de rôle) *Repas à 19h30 précise (environ 35 minutes) * « Coucher » à 21h00 (couvre feu)
B. La vie quotidienne des élèves
La vie matérielle est un aspect primordial dans la vie des élèves de l'Institut. Tous les élèves sont « pensionnaires » à Roville, hébergés obligatoirement chez quelques habitants, modalité assez originale. Cette obligation a fait l'objet d'une concertation entre Mathieu de Dombasle et les habitants mais aucun document ne l'évoque. Néanmoins, cela ne fait aucun doute puisqu'un tarif de pension a été déterminé de manière globale : selon les prestations fournies, l'élève paye entre 35 F et 55 F par mois. La présence de l'Institut et cette forme de logement a dû profiter aux villageois qui ont la possibilité de quelques gains supplémentaires. La croissance de la population du village, qui passe de 228 habitants en 1822 à 362 en 184399, est sans doute liée, en partie, à l'existence de la ferme exemplaire et de son Institut. Certains aspirent même à la création d'une auberge dans le village100. Mathieu de Dombasle n'a pas souhaité regrouper ses élèves dans un pensionnat car il juge cette structure nuisible, favorable à l'agitation. à chaque activité toujours La scolarité proposée n'est pas gratuite et le coût des études est assez important. Ces études ne sont pas abordables pour tous les paysans. Les frais s'élèvent en effet à 300F par an, payables par trimestre. Un manouvrier gagne 100 F par an en 1789 et 400 F en 1884101 ; « la valeur moyenne d'un boeuf [vers 1825] est de 200 F »102 ; un araire simple coûte 50 F103 ; le cens électoral s'élève à 300 F puis 200 F en 1831104. Seuls les plus aisés peuvent donc envoyer leur fils à Roville. En plus, il est demandé aux futurs élèves un dépôt de garantie de 150 F, perdu en cas de manquement à la discipline. Il faut encore ajouter les frais d'hébergement chez l'habitant, autour de 35 F-55 F par mois. Le coût total par élève et par an représente un investissement de 720 F à 960 F (sans compter les 2 F par mois pour la bibliothèque soit 24 F par an), soit le prix de quatre à cinq boeufs (au prix de 1825). Ces frais sont énormes et on en déduit que le précieux enseignement de Mathieu de Dombasle ne bénéficie qu'à une élite paysanne, mais n'est-ce pas ce qu'il a souhaité? La majorité des paysans, vivant dans « une misère endémique »105, ne peut y prétendre. Toutefois, l'Etat a accordé des bourses lors de la crise de 1831-1832. De jeunes paysans moins aisés ont donc pu intégrer l'Institut lorrain. On ne connaît malheureusement pas les titulaires de ces bourses. Pour les élèves qui décident de séjourner moins de deux ans, par choix comme on l'a écrit plus haut, ou par nécessité économique, leur moyens financiers ne leur permettant pas de rester trop de temps, le tarif est dégressif en fonction de la durée des études : 30 F pour le mois, 18 F par mois pour trois mois soit 54 F ou 12 F par mois pour six mois soit 72 F. En plus des élèves de l'Institut, Mathieu de Dombasle consent à former des valets de ferme dans le cadre d'un apprentissage exclusivement manuel, mais celui-ci n'est pas systématiquement gratuit. TABLEAU 9 LE COUT DES ETUDES (en Francs)
Source : Mathieu de Dombasle, Annales agricoles de Roville, 9 tomes, 1824-1837 ; A.D.M.M., 7 M
37
INSTITUT Frais 1 mois 3 mois de 6 mois 1 an scolarité 2 ans Dépôt de garantie Pension/mois Cotisation bibliothèque Total107 1 mois 3 mois 6 mois 1 an APPRENTI 30 54 72 300 600 150 35 à 55 2 67 à 87 95 à115 119 à 139 744 à 984 30 54 72 gratuit ****************************** 150 24 ****************************** 54 126 216 288
Rappel : un boeuf, vers 1825, coûte 200F, et un araire simple 50F. Le tableau récapitulatif ci-dessus permet de bien saisir l'intérêt des apprentis à s'engager pour une année entière et de remarquer l'écart important entre le coût d'une année pour un élève de l'Institut et les frais engagés par un apprenti : de 744 F à 984 F contre 288 F. Pour l'année 1838, Mathieu de Dombasle a dressé la liste de ses élèves108 : ils sont au nombre de 25. On peut alors faire l'hypothèse de la somme reçue par l'Institut cette année là. Si les 25 élèves sont restés pendant une année, ce qui n'est qu'une hypothèse, la somme globale serait comprise entre 18 600 F et 24 600 F, ce qui est considérable. Les frais engagés par Mathieu de Dombasle pour le fonctionnement de l'Institut n'étant pas très élevés, le bénéfice est important. Les sommes engagées permettent donc d'assurer la vie matérielle quotidienne des élèves de manière convenable. 106 Voir F. Knittel, « L'organisation du travail dans une ferme-exemplaire, vers 1810-1843 », Annales de l'Est, 2006-1, C. J. A. Mathieu de Dombasle et l'agronomie en Lorraine, Actes du colloque Mathieu de Dombasle, CTHS, 127e congrès, Nancy, 15-20 avril 2002, p. 33-49. 107 Dépôt de garantie non compris. 108 A. D. M. M., 7 M 37, lettre au préfet de la Meurthe, 3 février 1838 (reproduite en annexe 5.3). Les aspects de la vie matérielle (habillement, logement, nourriture), comme l'emploi du temps, sont rigoureusement réglementés. Mathieu de Dombasle impose l'uniforme à ses élèves. Celui-ci se compose d'une « blouse rurale fermée par devant et sans ceinture, en toile bleue ou écrue »109. Le coût de cet uniforme est compris dans les frais de scolarité. Ces derniers frais étant versés par année on peut supposer que les élèves suivant une scolarité de deux années reçoivent un uniforme neuf pour la seconde année. Cet habit reste rudimentaire, conforme à l'image humble de l'agriculteur que Mathieu de Dombasle contribue à diffuser. Aucun vêtement plus élaboré n'est prévu pour le dimanche alors que les élèves vétérinaires, à Lyon ou Alfort, ont un second uniforme pour les jours fériés et de repos110. Aucun élève ne loge dans les locaux de la ferme, les seuls bâtiments d'habitation sont ceux où vivent Mathieu de Dombasle et ses enfants. Les futurs chefs de domaine passent peu de temps chez les habitants de Roville. En effet les repas sont pris à la ferme à la table de Mathieu de Dombasle. Cette pratique n'a pas toujours eu cours puisque les premiers élèves « se logent et se nourrissent au dehors »111. Mais, bien vite, Mathieu de Dombasle accueille certains élèves à sa table. Les salariés de la ferme, qui le souhaitent, mangent à la table de la cuisine avec certains élèves. En 1825, le « nombre de journées de nourriture à la table de la cuisine, a été de 3134 », soit 8,5 convives en moyenne par repas112. Tous ne mangent donc pas à la ferme. Mathieu de Dombasle invite environ 5 personnes (soit 2050 journées nourriture en 1825) à sa table à chaque repas, tant des salariés que des élèves. Mathieu de Dombasle a dressé le menu quotidien des deux tables : « mes gens sont nourris de la manière suivante : au goûté, ils ne reçoivent que du pain, et quelquefois du fromage mou, lorsqu'il y en a ; mais il est rare qu'ils n'aient pas un morceau de lard ou autre chose à manger avec le pain, parce qu'ils trouvent moyen de mettre en réserve, pour cet usage, quelque chose de ce qui se donne aux grands repas. Au déjeuner, on leur donne une marmite de pommes de terre cuites à la vapeur, qu'ils mangent avec le pain. Le dîné se compose presque toujours d'une soupe au lard dans la proportion de deux onces de lard par individu ; on fait cuire dans ce pot au feu une grande quantité de légumes, qui se composent en hiver de carottes, pommes de terre et choux, auxquels on joint en été, des pois et haricots verts. Ces légumes forment, avec le lard, un plat qu'on leur sert après la soupe. Le soupé se forme, deux ou trois jours par semaine, du boeuf ou des autres viandes qui ont été servies sur ma table, qu'on met en réserve
109 Mathieu de Dombasle, A. A. R., op. cit., t. IX, 1837. Sur l'uniforme des élèves vétérinaires cf. F. Knittel, « L'enseignement vétérinaire : un progrès pour le monde agricole (1761-1848). L'exemple lorrain », Cahiers lorrains, 2004-1, p. 26-47. 111 A.D.M.M., 7 M 37, lettre de Mathieu de Dombasle au préfet de la Meurthe, 12 mai 1827. 112 Mathieu de Dombasle, A. A. R., t. III, p. 97. 110 363
pour cet usage, et que l'on accommode d'une sauce ; les autres jours, ce plat est remplacé par des pommes de terre fricassées, du laitage ou une polenta de farine de maïs. Le pain est toujours de fort bonne qualité, et chacun en prend à discrétion, à toutes les heures du jour. Ils ne reçoivent pas de vin, si ce n'est pendant les travaux de la fenaison et de la moisson, et aussi le 1er dimanche de chaque trimestre, jour où je les réunis tous dans un banquet, même ceux qui ne sont pas nourris chez moi, pour y faire solennellement la distribution des gratifications et primes que chacun a mérité »113. Tous les ingrédients consommés achetés à l'extérieur et rarement puisé dans les récoltes de la ferme. Si des produits de la ferme sont consommés, ils sont mis au débit du compte « ménage » et au crédit des autres comptes correspondants114. Mathieu de Dombasle exècre l'auto-consommation. Les repas sont assez équilibrés, on ne relève pas de carence majeure, ce qui est encore rare à l'époque pour la majorité des paysans. L'essentiel reste encore le pain mais les laitages et la viande sont proposés en suffisance. Les « usagés » de la ferme exemplaire, élèves compris, sont donc bien nourris. 113 Ibid., p. 97-98. Ibid., p. 104. 115 Ibid., p. 98-99. 114 364 C.
Etude « socio-historique » des élèves
Des élèves de Roville on connaît globalement peu de choses. Toutefois, certains ont évoqué leur passage à l'Institut116. Grâce à ces écrits et aux autres sources une étude quantitative, « géographique » et sociologique peut être esquissée. 1. Des effectifs restreints et fluctuants
Au commencement de l'Institut le nombre d'élèves est restreint : ils ne sont que trois en 1827. Mathieu de Dombasle écrit au préfet de la Meurthe en ces termes : « Dans ce moment j'en ai trois : l'un du département de la Moselle, l'autre du Bas-Rhin, et le troisième de Lunéville »117. Mais cet effectif augmente rapidement. Cependant, Mathieu de Dombasle souhaite accueillir un nombre restreint d'élèves afin de donner son enseignement dans les meilleures conditions matérielles possibles. Pour Mathieu de Dombasle peu d'élèves est un gage de qualité dans la prestation pédagogique. Il n'utilise pas la salle qu'A. Bertier met à la disposition de l'Institut, sa capacité d'une centaine de places est trop importante aux yeux du pédagogue qui limite ses promotions à trente élèves maximum118. Ce numerus clausus facilite la gestion des élèves et leur encadrement, et cela permet un accès à tous sur le domaine sans gêner le bon déroulement des travaux. Certes, Mathieu de Dombasle se prive d'une ressource financière non négligeable mais la réalisation efficace des travaux agricoles est une source de profit bien plus importante. Mais lorsque l'on dresse le bilan financier à la fin du bail, en 1843, cela n'apparaît pas évident puisque la ferme est en grandes difficultés économiques alors que l'Institut est financièrement prospère. Le nombre d'élèves fluctue beaucoup d'une année à l'autre, sans doute du fait des modalités d'étude. D'après Mathieu de Dombasle 17 élèves sont présents en 1828119. L'effectif maximum de trente élèves aurait été atteint à la fin de cette même année. L'agronome écrit que cet effectif de trente jeunes gens la règle de 1835 à 1843. Cependant, les fluctuations inter et intra-annuelles sont importantes. Une liste de la main de Mathieu de Dombasle le prouve puisque, d'après elle, 25 élèves sont présents en février 1838120. Un numerus clausus impose, si la demande est importante, et cela a été le cas, une sélection. Les seules exigences formulées par Mathieu de Dombasle sont la connaissance de la lecture, de l'écriture et du calcul, savoirs élémentaires. La motivation est aussi un facteur
116 J.C. Fawtier,
op.
cit. ; E. Bécus, op. cit. ; E. Lelong, op. cit. pour les principaux. A.D.M.M., 7 M 37, lettre du 12 mai 1827. 118 Bail de Roville, art. 47 in Mathieu de Dombasle, A. A. R., t. I, 1824. 119 Ibid., t. IV. 2. Les origines géographique et sociale des élèves
Les élèves viennent d'horizons géographiques très différents. Plusieurs documents permettent de le montrer et de mesurer l'évolution du recrutement. Le 12 mai 1827, dans sa lettre au préfet de la Meurthe, Mathieu de Dombasle indique l'origine géographique de ses trois élèves du moment : l'un de la Moselle, le second du Bas-Rhin et le troisième de Lunéville (Meurthe) 121. C'est un recrutement régional proche. Onze ans plus tard, en 1838, le fermier de Roville dresse une nouvelle liste : l'aire géographique de recrutement s'est fortement élargie122. Les élèves sont originaires de toute la France : le Morbihan pour Eugène Lepontois, le Var pour Jules Lambot, ou encore le Jura pour Auguste Villiard. Le recrutement est très dispersé. Souvent, un département n'a qu'un représentant. La Haute-Saône est une exception avec 4 élèves sur 25. L'Institut a donc, une dizaine d'années environ après sa création, un rayonnement important, sur le plan national mais aussi international. En effet, deux réfugiés polonais sont inscrits. Cependant, il est fort probable qu'ils ont eu connaissance de l'Institut une fois en France. Aucun élève lorrain n'est répertorié en 1838. Les élèves de l'Est ne dominent pas non plus. 12 élèves sont originaires de l'Ouest tandis que 11 viennent de l'Est (division selon une ligne Le Havre-Marseille) : une quasi égalité. Sur 11 originaires de l'Est, 8 le sont du Nord-Est dont 4 de Haute-Saône. Le recrutement de Roville est moins régional en 1838 puisque seulement 32 % des élèves ont un domicile familial dans le Nord-Est (mais aucun en Lorraine) contre 100% en 1827. E. Bécus a dressé, en 1874, la liste des membres de l'association des anciens élèves ou société rovillienne123. On compte 284 membres dont la majorité réside en France, répartis dans presque tous les départements. Bécus répertorie environ 30 membres étrangers correspondants à 18 nationalités différentes, avec une majorité de membres originaires des pays d'Europe centrale124. Cette liste pourrait permettre de connaître l'évolution du recrutement géographique mais, l'imprécision quant aux statuts de cette association est telle que l'on ne peut l'utiliser de façon sûre, d'autant plus que les regroupements des membres 121 A. D. M. M., 7 M 37. A. D. M. M., 7 M 37, Cf. carte 2 ci-après. 123 E. Bécus, op. cit., Société différente de la société des élèves. 367 s'expliquer, en partie, par la mise en place de bourses départementales. Le 28 décembre 1837, une bourse est accordée par le préfet de Corse à un jeune pour aller étudier à Roville. Le préfet de Haute-Saône a fait de même le 29 novembre 1837126. L'octroi d'une bourse a facilité les longs déplacements. De provenances géographiques diverses, les élèves de l'Institut sont tous « fils de propriétaires aisés » ou « des jeunes gens envoyés par de grands propriétaires qui les destinent à diriger l'exploitation de leur domaine »127. Ils sont donc, pour la plupart, issu de l'« aristocratie paysanne ». Certains aristocrates ont fait partie des effectifs. Tous ont vocation à exercer l'art agricole sur de vastes domaines. L'âge des élèves n'est pas uniforme : ils sont âgés de 18 à 30 ans environ soit une amplitude de 12 ans. Cette différence d'âge n'a pas dû faciliter les rapports entre les élèves même s'ils sont issus du même milieu. La tâche des enseignants n'est pas non plus des plus aisées, ils s'adressent en même temps à des adolescents et à des adultes. L'étendue des connaissances de chacun doit être fort diverse. La pédagogie des maîtres ne peut être dans ce cas qu'une approche individuelle car la cohésion de classe est affaiblie par l'hétérogénéité des âges. L'absence de pensionnat peut être expliquée ainsi. Lors des difficultés économiques de 1831-1832, l'Etat apporte une aide à la ferme exemplaire et à l'Institut sous forme de subventions mais aussi en accordant des bourses d'études128. Cette année là, elles sont au nombre de dix permettent à des élèves de condition plus modeste de venir suivre l'enseignement du maître lorrain. Ces élèves ne sont plus sélectionnés sur un critère de fortune mais d'après leurs qualités intellectuelles et leurs motivations. Le faible effectif et l'esprit de corps, nécessaire au sein de la société des élèves, n'a pu que faciliter leur intégration. De plus, du fait de la grande variation des effectifs dans un temps court, ces élèves modestes ont pu être majoritaires à certains moments. La ferme exemplaire n'accueille pas que des élèves. Ces derniers ne sont d'ailleurs pas majoritaires. Les employés de la ferme et de la fabrique sont beaucoup plus nombreux. Les apprentis sont intégrés au personnel d'exploitation. Ces jeunes hommes sont formés à l'âge de 18 ans pour environ un an. 126 A. D. M. M., 7 M 37, correspondances préfectorales. Mathieu de Dombasle, A. A. R, t. IV, 1828. 128 A. D. M. M., 7 M 37. 129 Sur les divers employés de la ferme-exemplaire, cf. supra, chapitre VIII. 127 368
CHAPITRE XII L'INFLUENCE DE LA PEDAGOGIE DE MATHIEU DE DOMBASLE ET SES HERITAGES
Roville est le berceau de l'enseignement agricole : réalisation pendant une période longue de près de 20 ans (1826-1843), des principes et projets formulés depuis la seconde partie du XVIIIe siècle. Mathieu de Dombasle, intellectuellement proche des agronomes des Lumières, en applique les théories et s'inspire des projets de ses devanciers pour faire de l'enseignement de l'agriculture un fondement essentiel de la modernisation agricole et rurale alors que la plupart des agronomes jugent l'agriculture de l'époque déliquescente. 369 I. Les résultats de vingt ans de formation agricole
En mars 1843 le bail de Mathieu de Dombasle prend fin. La ferme exemplaire de Roville cesse alors de fonctionner tandis que l'Institut est fermé. La première école d'agriculture disparaît avec son fondateur, décédé le 27 décembre 1843. Le bilan global de la ferme exemplaire a déjà été dressé de manière rigoureuse par J. M. Wantz1, puis repris dans de nombreux travaux ultérieurs2. Il est donc inutile d'y revenir longuement ici. Globalement, l'expérience de la ferme-exemplaire est considérée comme un échec économique : les rendements ne sont pas meilleurs que les rendements moyens constatés à l'époque3. De plus, les techniques culturales innovantes mises en oeuvre à Roville sont rarement imitées par les exploitants voisins. Mathieu de Dombasle a rédigé le dernier tome des Annales agricoles de Roville en 1837, les cinq dernières années de son entreprise sont donc mal connues. A l'échéance du bail, les rapports entre A. Bertier et Mathieu de Dombasle ne sont plus aussi cordiaux que vingt années auparavant : une querelle, dont on ne connaît guère les raisons, semble opposer les deux hommes4. Le bail n'est pas reconduit et les modalités de cessation d'activité favorisent les mésententes, un arbitrage extérieur est même nécessaire. La faiblesse du capital initial, les rendements médiocres, la conjoncture économique, souvent défavorable, ont favorisé l'endettement et la fragilité de l'entreprise. La fabrique d'instruments aratoires perfectionnés a été le moteur économique permettant de combler les déficits de l'exploitation grâce aux profits qu'elle a permis, mais elle est transférée à Nancy en 1839 pour bénéficier d'une situation plus favorable. Economiquement, après vingt ans, on ne peut donc dresser qu'un constat d'échec, néanmoins, comme pour la sucrerie de Monplaisir, 1 J. M. Wantz, Mathieu de Dombasle et la ferme exemplaire de Roville,, op. cit. Nous en avons dressé la liste dans le chapitre II supra et en bibliographie, infra. 3
J
. Boul
aine, J. P. Legros, « Mathieu de Dombasle ; Précurseur de l'enseignement agricole français », D'O. de Serres à R. Dumont : portraits d'agronomes, Paris, Lavoisier, 1998, p. 67-87, p. 73 ; F. Roth, Histoire de la Lorraine, t. IV, L'Epoque contemporaine, op. cit., p. 102 et B. Campbell, M. Overton, Land, Labour and Livestock. Historical Studies in European Agricultural Productivity, Manchester, Manchester University Press, 1991. 4 J. P. Legros, J. A. Des élèves en nombre
Le succès de l'Institut, au point de vue du nombre d'élèves, est indéniable. Certes, les promotions n'ont pas toutes atteint l'effectif maximum de 30 élèves mais l'accueil régulier de jeunes garçons pendant une longue période est déjà un succès. La fluctuation de l'effectif a été importante comme on l'a vu et l'hiver a souvent été la période de faible fréquentation. En 1837, Mathieu de Dombasle, annonce que plus de 250 élèves ont étudié à Roville8. Pour la période 1837-1843, seul le gendre de l'agronome, Charles Meixmoron de Dombasle, donne des informations : d'après lui, « la ferme de Roville a été explorée et étudiée par de nombreux visiteurs et par près de 400 élèves »9. Aucun registre global ne permet de confirmer ce chiffre, toujours repris dans les ouvrages ultérieurs consacrés à Mathieu de Dombasle. On peut donner foi à ce témoignage comme de nombreux autres auteurs l'ont déjà fait mais il est aussi intéressant d'appuyer la démonstration sur d'autres preuves : l'utilisation de la liste des membres de la société rovillienne associée à celle des élèves, établie en 1838 par Mathieu de 5 Fête du centenaire de Mathieu de Dombasle et concours régional, Nancy, 1878.
E
. Lelong,
Mathieu de Dombasle et son école. Etude familière et rétrospective, Chartres, Durand frères, 1880. 7 J. C. Fawtier, « Mathieu de Dombasle. Lettre à MM. les membres de la société centrale d'agriculture de Nancy », Le Bon cultivateur, Nancy, 1845. 8 Mathieu de Dombasle, A. A. R., t. IX, supplément, 1837. 9 Ch. Meix
de Dombasle, Notes et documents pour servir à l'histoire de l'établissement de Roville, Nancy, 1844. 6 371 Dombasle, peut apporter une confirmation10. En effet, on sait que tous les anciens élèves n'ont pas adhéré à la société rovillienne et que d'autres membres ne sont pas anciens élèves mais des enseignants. Sur les 25 élèves présents en février 1838, 22 ont été retrouvés dans la liste de la société rovillienne, soit 88%. On est donc sûr que ces 22 noms sont ceux d'anciens élèves. Aussi, une hypothèse statistique à partir de ces deux données peut être posée. Il faut tout d'abord poser le postulat suivant : l'année 1838 est a priori une année type. Pour la promotion 1838, 88% des élèves adhèrent à la société rovillienne. 10 E. Bécus, op. cit., p. 55-63 et A.D.M.M., 7 M 37, liste d'élève dressée par Mathieu de Dombasle en février 1838. Cf. reproduction supra, en annexes 5.3 et 9. 11 Selon l'équation suivante : soit x le nombre total d'élève, 284 = 88x/100 soit 322,72. 12 Cf. carte en annexe 10. 372 B. La réussite nuancée de la formation des chefs de domaine
Les anciens élèves chefs de domaine ont laissé peu de traces. Cependant, Mathieu de Dombasle a publié un certain nombre de lettres, que les régisseurs lui ont envoyées, dans la dernière livraison des Annales agricoles de Roville13. Ce sont ces lettres qui sont utilisées dans ce paragraphe14. L'échantillon présenté dans le tableau ci-dessous est peu important : 9 anciens élèves pour 400 formés15. Néanmoins, on peut essayer d'en déduire quelques éléments d'analyse. Les neufs exploitations sont de grands domaines souvent pris à ferme ou, lorsqu'ils sont exploités en faire-valoir direct, ce sont des exploitations familiales. Les assolements pratiqués sont le plus souvent complexes. Pigeart a même partagé son domaine de Bazet, en Dordogne, en deux entités distinctes où il applique des successions culturales différentes. La première, sur 13 hectares, est organisée sur quatre ans : plantes sarclées fumées / blé avec trèfle (50%)-trèfle faroueh avec raves (50%) / trèfle avec sarrasin / blé ; sur la seconde partie, d'une étendue de 24 hectares : plantes sarclées ou jachère / blé avec trèfle / trèfle plâtré / blé16. Aucun ne pratique de culture stéréotypée afin de reproduire fidèlement les mêmes pratiques qu'à Roville. En revanche, tous ont étudié minutieusement les sols qui composent leurs exploitations afin d'adapter aux mieux les pratiques culturales et d'obtenir les meilleurs rendements17. Le contexte local est primordial, tous en sont conscient et appliquent la méthode d'observation et de pratique apprise à Roville. Ainsi, certains n'hésitent pas conserver la jachère ou à pratiquer un « assolement » triennal traditionnel comme Girval à Boussenois en Côte-d'or18. Les savoirs acquis à Roville sont utilisés : V. Duffourc, dans le Cantal, « [prépare], sur les modèles qu'[il a] apporté de Roville, [ses] cahiers de comptabilité »19. Le fils de Mathieu de Dombasle, Léon, et son premier gendre, Busco se sont installés au Verneuil, dans le Maine-et-Loire, en septembre 182720. C'est une grande exploitation de 450 hectares « d'un seul tenant » où les deux agriculteurs essayent de reproduire exactement la situation de Roville. En effet, ils créent une fabrique d'instruments aratoires où « les 13 Mathieu de Dombasle, A. A. R, t. IX, 1837, p. 289-479. Cf., en annexe 8, le tableau élaboré à partir de ces lettres où sont classées les données brutes.
15 Dans le tome VII des A. A. C. Les cadres de l'enseignement agricole français formés à Roville
Après son passage à Roville, Auguste Bella fonde, en 1826, avec Antoine Rémy Polonceau, l'école d'agriculture de Grignon en région parisienne23. Cette école devient Institut royal agronomique le 23 mai 1827 par ordonnance du roi Charles X24. A. Bella a été l'élève de Thaër et le « co-disciple » de Mathieu de Dombasle. Il suit les cours de l'Institut de Moëglin de 1803 à 1805. Il se rend à Roville en 1825 puis voyage en « Allemagne » de juin à septembre 1826 ; voyage au cours duquel il visite les principaux Instituts agronomiques dont Hohenheim et Tharandt25. Il effectue ce périple avec Desjobert, ancien élève de Roville. Le passage en Lorraine a donc été une étape préparatoire à la création de Grignon, principale école d'agronomie de France encore aujourd'hui. Grignon accueille de nombreux élèves regroupés dans des promotions de 100 comme à Moëglin26. A. Bella n'instaure pas de numerus clausus et donne une grande importance aux « science annexes » (botanique, géométrie, mécanique, comptabilité et les langues étrangères), mises sur le même plan que la pratique. A. Bella est donc plus proche d'A. Thaër que de Mathieu de Dombasle. En 1836, un
21 I
bid., seconde lettre, 25 juin 1829. Mathieu de Dombasle, A. A. R, t. IX, 289-479. 23 Les premiers éléments de réflexion sur ce point ont été développés dans F. Knittel, « Innovation et diffusion de l'innovation en agronomie. L'exemple de Mathieu de Dombasle », P. Robin (dir.), Histoire et Agronomie : entre rupture et durée, Colloque de Montpellier, 20-22 octobre 2004, Paris,
IRD éd., coll. « Colloques et Séminaires », sous presse. 24 M. Boulet et al., 1848, le printemps de l'enseignement agricole, Dijon, 1998, p. 44. 25 Ibid. 26 700 élèves ont été formés en 1850. 22 374 diplôme est créé consistant en la soutenance d'un mémoire « présentant un plan raisonné et détaillé de culture pour un domaine »27. Ce diplôme devient quelques années plus tard la thèse agricole : travail de recherche appliquée qui consiste pour l'étudiant en agronomie
à
proposer
un nouveau
système
de
culture
,
plus performant
, é
laboré
à
partir
de
l'observation in situ des pratiques et
techniques
de
l
'exploitation
dans
laquelle il a effectué son stage de fin d'étude28. Emile Cordier dans sa thèse agricole de 1902 concernant le Domaine de Ravenel, exploité par la famille Buffet à Mirecourt, précise que l'exercice « consiste à développer plus ou moins les opérations que l'on se propose de faire sur une terre donnée, les spéculations que l'on veut y entreprendre, et à montrer par des comptes le bénéfice approximatif que l'on espère en tirer par année moyenne, d'après les rendements espérés dont sont déduites les dépenses supposées »29. L'Institut royal agronomique de Grignon forme des « ingénieurs » plus que des chefs de domaine. Des Annales sont aussi publiées, de 1828 à 1848, comme à Moëglin et Roville, élément essentiel de la communication des établissements d'enseignement agricole entre eux et avec l'extérieur. L'Institut de Grand-Jouan, près de Rennes fondé par Jules Rieffel (1806-1886) en 1830 est plus proche des structures rovilliennes. J. Rieffel a été l'élève de Mathieu de Dombasle de 1828 à 1829 et fait partie de la société rovillienne. Il a d'ailleurs entretenu une correspondance avec Mathieu de Dombasle et J. C. Fawtier, ancien élève aussi30. D'après Rieffel, « il manque à l'agriculture cette classe d'hommes précieux, placés à l'armée entre l'officier et le soldat ; dans l'industrie manufacturière, entre l'ouvrier et le fabricant »31. Il souhaite donc former dans son Institut le même personnel que Mathieu de Dombasle. J. Rieffel perpétue en quelque sorte l'héritage qu'il a reçu de son maître et contribue à la diffusion de ses idées. J. Rieffel innove aussi, il ne copie pas simplement Roville32. Avec insistance, il affirme que « la théorie et la pratique do se prêter un appui mutuel »33 ; idée 27 M. Boulet et al., op. cit. Pour un exemple de thèse agricole encore conservée
: E
. Cordier
,
Le domaine
de
Ravenel
, Thèse agricole, institut agricole de Beauvais, Reims, 1902. Cf. M. Benedict-Trocmé, « Le titre d'ingénieur agronome », M. Boulet (dir.), Les enjeux de la formation des acteurs de l'agriculture, 1760-1945, Actes du colloque ENESAD, 19-21 janvier 1999, Dijon, Educagri, 2000, p. 367-371 et F. Birck, « Les origines des écoles d'ingénieurs de Nancy. Le rôle de la faculté des sciences de Nancy », J. F. Clément, F. Le Tacon (dir.), Sciences et techniques en Lorraine à l'époque de l'Ecole de Nancy, Actes des conférences données du 4 mars au 28 avril 1999 à la M.J.C. Pichon de Nancy, Nancy, M.J.C. Pichon éd., 2001, p. 105-117.
| 55,759
|
tel-04107714-2020%20LTAN%20THESE.txt_3
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,023
|
La ville autoritaire.
La métamorphose urbaine comme outil de légitimation politique :
Shanghai (1990-2010) au regard du Paris du Second Empire (1852-1870).. Sciences de l'Homme et Société. AIX-Marseille Université, 2019. Français. ⟨NNT : ⟩. ⟨tel-04107714⟩
|
None
|
French
|
Spoken
| 7,080
| 10,379
|
Inscrire un montant précis d’impôts à récolter dans les contrats annuels passés entre le fonctionnaire et son autorité de tutelle devait aussi permettre d’augmenter les recettes pour le gouvernement central. Il n’en a rien été (BURNS, 2003). Mais ces contrats annuels ont constitué une réforme importante en ce qu’elle modifiait le rapport de l’agent par rapport au système. En effet, l’instauration d’objectifs définis et précis pouvant donner lieu soit à des primes soit à contrario des sanctions faisait disparaître l’obligation pour l’agent d’agir pour des raisons d’attachement ou de respect pour la discipline ou l’idéologie. Ce système d’entretiens individuels annuels précédant la détermination d’objectifs précis est très usité dans les entreprises privées. L’avancement de carrière des agents est désormais conditionné par l’atteinte ou non des objectifs. Ainsi les maires et autres fonctionnaires municipaux ont comme objectif annuel, la réalisation d’un taux de croissance. Cette réforme participe grandement à la professionnalisation de l’appareil d’Etat au niveau local.
38 Recentralisation et fin des contrats fiscaux (1993- 1998)
Lors du 14ème congrès du Parti en novembre 1993 et face à la décrue des rentrées budgétaires, le gouvernement central décide de réformer à nouveau le système fiscal. Ce nouveau système de partage des impôts (Taxes Share System) instaure une recentralisation du pouvoir fiscal. La première mesure remplace les contrats fiscaux par un nouveau partage des recettes fiscales : 75% de la tva sur la production revient au budget central tandis que le reste va au gouvernement local. La deuxième mesure quant à elle redéfinit les assiettes fiscales des deux parties. Le gouvernement local conserve les impôts locaux, à savoir l’impôt sur le revenu, sur les s s (à l’exception de celles relevant de la compétence exclusive du centre), sur la propriété et sur l’usage des sols. Plus toute une série de taxations mineures sur la propriété, les ventes immobilières et les recettes des industries de l’échelon local. (CAULFIELD, 2006). L’autre objectif de la réforme est de gagner en transparence -on passe ainsi de 32 impôts à 18- et de clarifier les rôles des uns et des autres en matière de recouvrement fiscal. Pour la première fois, le pouvoir central reconnait officiellement au gouvernement local un pouvoir taxateur. En échange, il conserve le contrôle sur l’assiette et le taux des impôts locaux. Cette réforme est importante car elle stabilise enfin les rentrées fiscales et la fin du marchandage mis en place par les contrats fiscaux. (ORBAN, 2003). Réformes « Petit Etat, Grande société » (1998-2006)
Les réformes suivantes ont pour mot d’ordre « petit Etat, grande société ». Le pouvoir central cherche à rationaliser et à réduire les effectifs de la fonction publique afin d’adapter les missions de l’appareil d’Etat au nouveau contexte « d’économie socialiste de marché ». L’objectif est de diminuer de moitié la taille de l’administration. Il est atteint en 2001 au niveau central et provincial. (CAULFIELD, 2006) En revanche, au niveau local (préfectures, districts et cantons), les résultats sont plus mitigés (CHOU, 2004). Une des raisons est la contradiction entre cet objectif et celui du maintien de l’ordre qui fait partie également des objectifs des fonctionnaires. L’administration locale dans les régions pauvres fait partie des employeurs de dernier ressort. Par conséquent, dans un souci de stabilité sociale, les autorités locales préfèrent conserver plus de personnel qu’il n’est nécessaire. Dans ce contexte, le rôle du PCC comme élément stabilisateur et régulateur social joue pleinement. Le gouvernement central, même s’il est convaincu du bien-fondé de ces réformes, n’oublie pas pour autant, son objectif premier qui est la stabilité sociale, première condition de son maintien au pouvoir. Les impératifs politiques priment sur ceux de la logique comptable. La course aux places
L’objectif de ces réformes est de rendre l’appareil d’Etat plus professionnel, plus autonome et plus efficace. Elles ont surtout instauré un système d’avancement au mérite pour les agents publics. Mérite qui revient la plupart du temps à atteindre un certain taux de croissance. C’est pourquoi les gouvernements locaux sont si attentifs aux performances économiques de leur territoire. Pour ce faire, les maires engagent des politiques de modernisation des infrastructures et des équipements. Ces réalisations sont également pour eux une preuve de leurs actions vis-à-vis de la hiérarchie. Ainsi deux maires de Shanghai, Wu Banguo et Huang doivent leur promotion au gouvernement central à leurs travaux de modernisation. De même que Han Zheng, nommé au Comité Permanent en 2017 par Xi Jinping, doit son poste de maire de Shanghai à la rénovation réussie de la Huaihai road dont il avait la charge en tant que maire du district de Luwan (BERGERE, 2002). De fait, le territoire chinois est dirigé localement par des représentants du pouvoir central : ils sont nommés par le Parti-Etat. Leur statut est très similaire à celui d’un préfet français, affecté à la bonne conduite et gestion d’un territoire et périodiquement muté. Il est par conséquent plus adéquat de parler de déconcentration du pouvoir plutôt que de décentralisation. Le système administratif chinois demeure une machine bureaucratique centralisée, où montrer et démontrer sa loyauté à l’appareil central est primordial si on veut progresser dans sa carrière. En somme, le maire n’est pas comptable devant ses habitants puisqu’il n’est pas élu mais désigné par une hiérarchie. Même si l’atteinte des objectifs fixés est indispensable pour l’avancement, elle n’est pas suffisante. Le candidat doit aussi disposer de soutiens au sein de l’appareil d’Etat central. Car c’est au niveau central que se décident le destin des territoires. La métamorphose de Shanghai a commencé lorsque des maires de la ville ont été nommés à Pékin. C’est de là qu’ils ont pu réellement soutenir le développement de la ville. Le président Jiang Zemin et le premier ministre Zhu Rongji, tous deux anciens maires de Shanghai, ont favorisé les projets de leur ville (BERGERE, 2002). Grâce à leur nouvelle position, ils ont pu avantager la ville : meilleure répartition fiscale et plus de promotions de cadres shanghaiens à Pékin. Fait capital pour une société comme la société chinoise qui fonctionne sur ses guanxi (关系 relations) : l’administration shanghaienne gagne ainsi de nouveaux contacts au sein de l’administration centrale. Dans le système chinois, les promotions doivent beaucoup aux allégeances faîtes à tels dirigeants du Parti communiste. Les deux hommes politiques cités plus haut étaient très appréciés de Deng Xiaoping, en raison bien sûr de leurs résultats économiques, mais aussi et surtout de leur loyauté, notamment à la ligne politique prônée par Deng. Le système chinois reste très hiérarchique, les échelons se grimpent un à un et ainsi les cadres sont contraints à respecter les directives venues d’en haut. Il conduit tous les cadres à regarder en haut, à anticiper et à prendre en considération les souhaits de l’échelon supérieur et non pas à 40 regarder vers le bas, à prendre en considération les besoins des habitants. Une fois encore, force est de constater combien le devenir des villes en est fortement tributaire des desseins de Pékin. La mainmise de l’appareil chinois sur la société se fait au moyen d’un puissant réseau administratif. Le secteur économique n’échappe pas à l’emprise de ces hauts fonctionnaires comme le montre le fonctionnement des entreprises publiques d’Etat. Elles sont une autre spécificité de cette économie socialiste de marché.
2.3. LE CAPITALISME D’ETAT OU COMMENT LE PCC PESE SUR L’ECONOMIE
Le PCC a aussi réformé le secteur économique tout en restant fidèle à « l’économie socialiste de marché ». Derrière ces termes antinomiques, les chercheurs mettent les mots de « capitalisme d’Etat » (BERGERE, 2010) ou de « state capitalism » (XING et SHAW, 2013). Les entreprises publiques en sont sans conteste la manifestation la plus concrète. Car malgré les prévisions des observateurs sur un rétrécissement rapide et important du secteur public, celui-ci reste un acteur majeur. Les entreprises publiques d’Etat, un territoire comme les autres
Le poids et l’influence des entreprises publiques sur l’économie chinoise est telle qu’il vaut à cette économie le qualificatif de capitalisme d’Etat. En effet, elles trustent les secteurs considérés comme stratégiques par l’Etat : l’énergie, les banques, les assurances, les sociétés de média, les transports. Cela signifie que le secteur économique est très largement sous le contrôle étatique via cette dépendance et cette subordination (Figure 14). L’Etat par leur intermédiaire peut peser rapidement et fortement sur les évolutions économiques en corrigeant ou en renforçant les tendances. En termes de management et de gestion, elles emploient celles des grandes entreprises. Leurs dirigeants sont comptables des résultats. Mais à la différence des entreprises privées, elles bénéficient de la protection de l’Etat et de son appui. Elles seraient en quelque sorte l’équivalent en France de France Telecom ou d’EDF avant leur privatisation. Leurs dirigeants s’apparentent davantage à de hauts fonctionnaires agissant au nom de l’Etat pour l’intérêt général. D’ailleurs c’est ce qu’ils sont en termes de statut puisque ce sont des fonctionnaires nommés par leur administration de tutelle (ministère ou conseil des Affaires de l’Etat). Figure 14 : Organigramme tutelle des entreprises publiques é et W (2013)
Cette porosité entre le monde économique et le monde politique transparaît très clairement dans le parcours de bon nombre de dirigeants d’entreprises publiques : le dirigeant de la société de construction aéronautique Comac est aussi gouverneur de la province du Hebei, le gouverneur d’une société automobile était auparavant gouverneur adjoint de la province du Jilin, etc. (LI, 2011). D’ailleurs depuis 2010, tout l’encadrement des entreprises relevant du gouvernement central est obligatoirement membres du Parti (BERGERE, 2010). Le pouvoir politique dispose ainsi par ces relais d’éléments pouvant appliquer les directives du gouvernement central. De fait, les entreprises publiques peuvent s’apparenter à des cellules politiques à vocation économique. Parce qu’ils sont des administrateurs au service de l’Etat, une partie de leurs missions est de nature politique. Ils mettent en œuvre les politiques macroéconomiques du régime tout en essayant de maintenir la stabilité sociale de leur territoire. Le passage au sein d’une entreprise d’Etat fait partie du cursus honorum pour accéder aux charges les plus importantes de l’Etat. L’ancien président Jiang Zemin a été directeur d’usine et l’ancien premier ministre Li Peng a dirigé une centrale thermique. Plus que dans tout autre système économique, les décisions économiques doivent être interprétées 42 politiquement. Étant donné le poids des enjeux politiques, ces administrateurs ou bureaucrates doivent aussi faire preuve de compétences allant bien au-delà de la simple gestion. Sachant que la réussite, à savoir l’atteinte des objectifs fixés, équivaut à une très probable promotion. Les entrepreneurs, classe sociale encartés au système Le PCC n’est pas encore parvenu à implant une cellule dans chaque entreprise privée. En 2006, moins de 30% des entreprises privées en avaient une (BERGERE, 2010). Cependant on constate une augmentation dans les entreprises de plus de 50 personnes ainsi que dans les entreprises étrangères. La chaîne américaine de distribution Wal-Mart a ainsi autorisé la création en 2006 de cellules dans ses magasins en Chine. En cherchant à rallier cette nouvelle classe d’entrepreneurs privés, le PCC veut les empêcher de se transformer en groupe autonome voire plus grave d’opposition. Pourtant les entrepreneurs privés sont loin de fuir l’entregent des cadres du PCC. La société chinoise étant régie par un système fondé sur les relations (guanxi) que certains qualifient de clientélisme, ils ont tout intérêt à nouer des liens avec les autorités locales politiques. De bonnes relations avec l’administration (alimenté en petits cadeaux plus ou moins dispendieux) peuvent faire gagner beaucoup de temps aux entreprises en leur évitant les tracas administratifs. De plus ses relations peuvent constituer un appui dans la conduite de leurs affaires (prêts, autorisations, commandes du secteur public). Etre membre du PCC confère par ailleurs du prestige. Le PCC est devenu un passage obligatoire non seulement pour une carrière publique mais aussi dans le privé. Car à partir d’un certain seuil, il est impossible de se développer sans se rapprocher des instances officielles (BERGERE, 2010). Ce n’est pas un hasard, si les entreprises privées les plus florissantes sont celles dont les dirigeants sont soit d’anciens cadres ou parents de cadres ou qui comprennent dans leurs réseaux des cadres officiels.
Conclusion : La persistance d’un Etat-Parti omniprésent
« La répartition des membres varie d’une ville à l’autre. Néanmoins, elle est Figuree par deux principes fondamentaux des structures urbaines institutionnelles américaines : le contrôle populaire des appareils de gouvernement et la propriété privée (STONE, 1993). Pour le créateur de la théorie des régimes urbains, leur ancrage ne peut se faire que dans un système acceptant les élections et l’autonomie de la sphère économique. Au terme de ce chapitre, force est de constater que le paysage institutionnel n’est en rien compatible. 43 Si le PCC a renoncé à contrôler la vie privée de la population, sa capacité à agir sur la société et l’économie reste intacte. « A la fois puissant et flexible, il accompagne le changement tout en le contrôlant » (BERGERE, 2010). Il continue à maintenir son hégémonie en l’inscrivant dans la constitution et en parvenant à réformer son appareil d’Etat. Les agents publics sont devenus plus professionnels, plus autonomes et plus efficaces. Ils sont surtout moitié moins nombreux et sont désormais soumis aux mêmes règles d’évaluations que les salariés du privé (avancement en fonction de l’atteinte des objectifs). Les gouvernements locaux ne sont pas pour autant devenus des contre-pouvoirs. Au contraire, en ayant le pouvoir de nomination, le pouvoir central s’assure de leur fidélité ainsi que d’une gestion des territoires conformes à ses directives. A l’identique de nos technocrates, ils sont les représentants d’un Etat interventionniste, préoccupé d’efficacité, de productivité, faisant preuve d’un rationalisme à toute épreuve. Ces réformes des structures internes sont invisibles ou du moins, moins perceptibles par/de l’extérieur. Elles constituent néanmoins l’autre face de la transformation de la Chine avec l’ouverture économique. A l’issue de ces deux premiers chapitres, nous constations combien le cas chinois peut-être trompeur. On reconnaît ici et là des fonctionnements et des logiques qui expliquent le recours à des lecture mettant l’accent sur les réformes économiques ou bien encore sur l’appareil d’Etat. Elles sont toutes deux incomplètes car ignorant ou minimisant le contexte institutionnel et social du pays. Figure 15 : Organisation de la démonstration
Chap. 4. L’autre métamorphose urbaine : le Paris haussmannien Chap. 1. Shanghai à l’épreuve du régime urbain Chap. 3. La métamorphose de Shanghai : un phénomène idiosyncratique? Chap. 5 Tout pouvoir autoritaire produit-il une ville autoritaire? Chap. 2. Le continuel primat du politique
Chap. 6 Une urbanisation en trois étapes Chap. 8 Pudong, une affaire d’Etat Chap. 10 Lujiazui ou la maîtrise de la symbolique urbaine Chap. 7 La renaissance de la planification urbaine en 1978 Chap. 9 La course aux financements Chap. 11 De 1867 à 2010 : des expositions universelles à la gloire d’un régime
PARTIE 2. LA VILLE AUTORITAIRE OU LE RETOUR DU POLITIQUE
Cette deuxième partie sera consacrée à examiner les autres interprétations possibles de la métamorphose de Shanghai. Les approches néolibérales en vogue depuis les années 1990 ont été très utilisées mais n’ont guère permis de sortir de l’impasse. Les chercheurs sont en effet confrontés à la nature autoritaire du régime difficilement intégrable dans un modèle néolibéral. Si tous reconnaissent le rôle prépondérant de l’Etat, ils peinent à donner un sens à cette association d’une gestion très managériale de la stratégie urbaine et d’un pouvoir autoritaire. Ces caractéristiques chinoises pour les uns ou hybride pour les autres, les ont amenés à affirmer le caractère sui generis des villes chinoises (chapitre 3). En identifiant dans le Paris haussmannien du Second Empire (chapitre 4), un exemple similaire à celui de Shanghai, nous poserons l’hypothèse de la ville autoritaire. Dans cette partie, nous aborderons aussi la question de la méthodologie et pourquoi nous avons privilégié une approche processuelle (chapitre 5). 46 CHAPITRE 3. La métamorphose de Shanghai, un phénomène idiosyncratique? Pourquoi n’est-on pas parvenu à comprendre l’évolution des villes chinoises? Comment a-t-on interprété ce phénomène jusqu’à maintenant?
Nombre de chercheurs se sont penchés sur les villes chinoises. Si ces travaux apportent des éclaircissements tant sur la nature que sur la forme ou bien encore les dynamiques à l’œuvre, force est de constater qu’ils ne sont pas parvenus à donner sens à ce phénomène ou du moins à en donner une interprétation convaincante. En effet ces travaux décrivent mais peinent à aller au-delà. Nous même avons été confrontés à cette impasse : une fois avoir tenté de circonscrire la métamorphose urbaine de Shanghai à un modèle explicatif, ici le régime urbain, que pouvons-nous faire d’autre? Recommencer avec d’autres concepts et d’autres grilles de lecture, qui irrémédiablement buteront sur les mêmes écueils, à savoir les spécificités irréductibles du cas chinois (omniprésence du PCC et ouverture économique)? Cette aporie nous contraint ainsi à poser la question de : pourquoi n’eston pas parvenu à comprendre l’évolution des villes chinoises? Le concept de régime urbain montre les limites de ce type d’approche. Un modèle ou un concept émerge dans des contextes économiques, des situations institutionnelles et à des moments historiques particuliers. Leur concomitance est une condition de l’apparition de ce modèle. Parce que la métamorphose de Shanghai présente des contours et des dynamiques qui nous paraissent familières ou connues ou qui nous semblent identifiés, cela ne signifie pas pour autant que la rattacher à un modèle extérieur soit pertinent. En réalité , de nombreuses grilles de lectures sont inopérantes dans le cas chinois car la Chine par son évolution, son histoire et ses institutions ne peuvent être comparé aux évolutions, histoire et institutions des pays occidentaux. C’est du moins l’approche de John FRIEDMAN qui dans son « China’s urban transition » (2005) considère qu’il est difficile de ramener le cas chinois à des évolutions ou des exemples existants. Comme de nombreux chercheurs qui se sont penchés sur ce pays, il pense qu’en raison de son statut de pays-continent, représentant à lui seul une même et unique civilisation, les théories ou les concepts existants ne peuvent pas s’y appliquer. La Chine, selon ces chercheurs, n’est pas un pays comme les autres et doit être interprétée avec ses propres concepts. Est-ce à dire que nous devons nous résigner à considérer le cas de Shanghai comme un cas sui generis, irréductible à aucun autre modèle ou exemple? L’autre option est de refuser cette exception chinoise en croisant plusieurs théories et concepts de disciplines différentes. C’est l’approche d’un groupe de chercheurs pluridisciplinaires réunis sous la direction du chercheur, John LOGAN. Ses travaux sont une bonne synthèse de l’état de l’art sur la question des villes chinoises. Cependant il n’est 47 pas certain qu’ils apportent des réponses plus satisfaisantes. Néanmoins, la méthode comparative employée a le mérite de révéler les éléments et les paramètres spécifiques chinois. L’objet de ce chapitre est de présenter les différents travaux traitants l’épineuse question de : comment comprendre ce qui se produit à Shanghai? Les grilles de lecture employées sont nombreuses mais nombre d’entre elles sont issues soit des sciences politiques soit des théories économiques. Rien de surprenant à cela puisque tous les travaux consacrent le rôle des institutions et du pouvoir politique dans le processus d’urbanisation de Shanghai tout comme l’impact de l’ouverture économique du pays. Il conviendra aussi de se poser la question de pourquoi la recherche occidentale ne parvient pas à mieux cerner et à mieux interpréter ce qui n’appartient pas à son « périmètre d’influence ». Car il est certain qu’on ne pourra pas dépasser cette aporie conceptuelle sans renoncer à certaines idées préconçues comme la nécessaire conversion de la Chine à la démocratie en vertu du fameux « consensus de Washington ». Cette question des déterminismes sera traitée dans une première partie avec en deuxième partie un exemple saillant ce cette lecture biaisée. Enfin la dernière partie posera les limites de la méthode comparative. 3.1. DES DETERMINISMES A DEPASSER Une lecture néolibérale des trajectoires
L’article de Jonathan STORY, « La Chine sur la voie de la réforme : métamorphose économique ou suicide politique » (2003) est emblématique de l’état d’esprit de nombreux chercheurs des années 2000. L’auteur se félicite des réformes engagées par Deng Xiaoping à la fois sur le plan économique mais aussi institutionnelles. Il voit dans l’adhésion de la Chine à l’OMC en 2002, l’introduction des « normes occidentales » dans le système économique chinois. Elle est selon lui le préambule à d’autres, de nature politique cette fois ci : «...et il est probable que de nouvelles normes politiques seront discrètement introduites dans le Parti d’ici les Jeux olympique de Pékin, en 2008 ». (STORY, 2003). Cette adhésion, croit-il, est la marque de la volonté des dirigeants chinois d’aller encore plus en avant dans la collaboration avec le monde occidental et d’accepter les liens de dépendance y afférant. Plusieurs évènements lui permettent d’avancer ce pronostic (rétrospectivement) hasardeux. Le contexte international tout d’abord : les années 1990 sont celles de l’après chute du Mur de Berlin, celle de la victoire du camp occidental sur l’idéologie communiste. L’empire soviétique s’est écroulé. L’universitaire américain Francis FUKUYAMAM prédit la fin de l’histoire avec l’avènement de la démocratie libérale pour tous. Bref un moment d’euphorie s’est emparé de l’Occident. Du côté de la Chine, les IDE (Investissements 48 Directs Etrangers) affluent et font du pays, l’usine du monde. Le Président Jiang Zemin introduit dans la constitution la théorie des trois représentations qui lèvent l’ostracisme sur les entrepreneurs et autres capitalistes. Ils sont désormais és au sein du Parti. EN juin 1989, la Chine est ébranlée par le mouvement démocratique de Tiananmen et son écrasement sanglant. Pour STORY et une très grande partie des observateurs, le consensus de Washington va fonctionner : l’ouverture économique va fatalement entraîner l’ouverture politique. Puisque selon l’idéologie néolibérale à l’origine de ce concept, libéralisme économique et libéralisme politique se valent. Les thuriféraires de ce consensus sont certains du bien-fondé des principes néolibéraux : le droit de propriété, l’autorité de la loi, la flexibilité des prix, l’ouverture totale aux échanges internationaux, etc. (AGLIETTA et BAI, 2012). Ce courant de pensée est largement dominant dans les instances financières internationales comme le FMI qui ont appliqué ces principes à plusieurs pays en Asie, en Russie et en Amérique du Sud (AGLIETTA et BAI, 2012). La Chine fait figure de vilain petit canard dans cet océan de libéralisme. Le monde est train de changer et le PCC devra inéluctablement faire de même. Le statu quo n’est pas tenable d’autant plus que la révolution de l’information fait miroiter aux citoyens chinois le merveilleux mode de vie occidental et les bienfaits de la démocratie avec ses élections libres. L’insertion et l’intégration croissante de la Chine dans l’économie internationale accroit par là même sa dépendance. De plus le PCC doit assurer un niveau de croissance suffisant pour que la population continue à accepter son hégémonie politique. Tout concourt donc à ce que le pouvoir engage des réformes politiques à la hauteur de son ouverture économique : « Le Parti lui-même se trouve pris dans l’implacable logique du changement. Plus les mécanismes du marché jouent librement, plus les structures et les politiques existantes doivent être abandonnées au profit de nouvelles. La préservation obstinée du statu quo n’est plus de mise. » (STORY, 2003). Nombreux sont certains, au début du XXIème siècle, de la marche vers la démocratie d’une Chine désormais convertie au capitalisme (CHRISTIANSEN, 1994 ; GALLAGHER, 2002). Bien avant le consensus de Washington, la théorie de la modernisation, apparut au lendemain de la Seconde Guerre mondiale en propageait déjà les principes : plus une société s’enrichit, plus elle a d’appétence pour la démocratie. Forcément le consommateur voudra retrouver en matière de gouvernement la même liberté de choix ainsi qu’une plus grande large proposition de programmes. En effet, la croissance économique engendrée aura produit de larges classes moyennes urbaines dont les membres aspireront sans aucun doute à participer ou du moins à peser sur la conduite des affaires politiques. En se fondant sur la trajectoire de la majorité des pays occidentaux qui allient liberté économique et liberté politique, les tenants de cette théorie considèrent cette évolution comme inéluctable. Il paraît impossible aux chercheurs occidentaux, en ce début du XXIème siècle qui a vu la victoire de l’Ouest sur l’idéologie 49 communiste qu’un pays puisse voir cohabiter libéralisme économique et régime autoritaire. Même si l’histoire européenne est parsemée de ces exemples. Pour reprendre les mots de Gunther Schubert, l’installation à terme d’une démocratie libérale, « demeure le point de repère épistémologique de la plupart des recherches occidentales ». (2007). Comme démontré dans le chapitre précédent, la société chinoise a été structurée par les soubresauts de son histoire. A l’exception d’une longue parenthèse durant la première moitié du XXème siècle, le pays a été géré par un régime autoritaire : empire ou parti politique hégémonique. Ce contrôle politique demeure fort même si son champ d’application s’est volontairement restreint. Il n’en reste pas moins vrai que les détenteurs de ce pouvoir politique n’ont laissé aucun espace à l’émergence d’autres pouvoirs. Et agissent de telle sorte pour qu’il n’en est pas. Il est donc fort improbable que des acteurs économiques puissent jouer le rôle tenu par la bourgeoisie occidentale dans l’avènement d’un régime démocratique. D’autant plus qu’à la différence de celle-ci, les classes moyennes urbaines n’y ont aucun intérêt puisqu’elles bénéficient du système existant. Rappelons qu’elles sont, sur le plan numéraire, minoritaires dans la population. Bien sûr il est facile de critiquer lorsqu’on connaît la suite de l’histoire. Néanmoins, remarquons la dose d’arrogance (ou de suffisance ou de naïveté) que contient ce type d’approche déterministe. C’est ce type de lecture biaisée que les sinologues dénoncent en insistant sur les logiques internes des institutions chinoises et en parlant des spécificités inhérentes à une histoire singulière. Ce penchant à vouloir inscrire la Chine dans une trajectoire déterminée est également la marque d’une pensée impérialiste ou européocentrisme mis en œuvre par une partie de la recherche occidentale. Le champ des études urbaines n’y a pas échappé mais une prise de conscience s’est opérée depuis quelques années sous l’impulsion des travaux de
géographe Jennifer ROBINSON. Un fort tropisme occidental
Quelle pertinence à une hiérarchisation sur des bases économiques? Jennifer ROBINSON est une des fers de lance contre cette hiérarchisation qui s’est mis en place au début des années 1970 dans les études urbaines. Les villes étaient cataloguées soit comme des villes développées soit comme des villes sous-développées. Les villes occidentales s’opposaient aux villes du Tiers-monde. Bien que la guerre froide soit désormais finie, cette vision continue de perdurer dans les esprits. A la décharge des chercheurs, ils ne sont pas à l’origine de cette catégorisation qui a débuté dans un XIXème impérialiste et qui a été entériné par la division Est/Ouest (MCFARLANE, 2006). Même si cette réalité du monde a disparu, il est difficile de s’en défaire tant les structures et les cadres sont solidement ancrés dans les mentalités. Ainsi nombre de chercheurs chinois emploient également cette grille de lecture avec tous les a priori attachés 50 Jennifer ROBINSON dénonce dans ses travaux l’injonction à cataloguer la ville selon des critères de développement économique. Selon elle, l’opposition entre modernité et tradition n’a pas lieu d’être. Au contraire ces deux aspects sont interdépendants. Ainsi elle démontre combien la modernité de l’architecture et l’urbanisme de New-York doit à Rio de Janeiro ou à Mexico ou bien encore à la Renaissance italienne. En définitive, les milieux urbains sont plus le résultat de mélanges que le fruit d’innovations. La ville est donc un produit cosmopolite. Et en se focalisant sur le seul niveau du développement économique, les chercheurs passeraient à côté de ces éléments explicatifs. Le biais du modèle urbain
L’approche comparative est probablement la méthode la plus usité dans les études urbaines. Nous comparons de façon plus ou moins explicite la ville A avec la ville B ou bien encore telle théorie ou tel concept avec tel autre. Même si le modèle ou le référent n’est pas nommé, il existe dans la tête du chercheur. Et ce modèle ou référent nous a été imposé par plusieurs décennies (ou siècles) de recherches. L’exemple le plus emblématique est le débat soulevé par le livre, The City, Los Angeles and urban theory at the end of twentieth century (SCOTT et SOJA, 1996). Cette synthèse couvre aussi bien la question de la forme urbaine, que du postfordisme ou des questions d’échelle territoriale. Los Angeles est apparu dans les années 1980 et 1990 comme étant la quintessence de la problématique urbaine dans son expansion, sa gestion et ses inégalités. La ville serait selon les auteurs, « l’archétype de la ville de la fin du XXème siècle » ou bien encore « l’archétype d’un urbanisme postmoderne émergent » (DEAR, 2000). La qualité des contributions n’est pas le problème. Selon certains chercheurs, ce qu’induit ou présuppose cet ouvrage est l’universalité des problématiques de Los Angeles. En posant Los Angeles comme LA ville, il contraint les chercheurs à s’aligner sur ces thématiques dans leurs comparaisons (BEAUREGARD, 2003). Et les résultats ne peuvent qu’être insatisfaisants car Los Angeles ne peut pas être l’exemple emblématique de la ville du XXème siècle. D’ailleurs en existet-il une? Bien sûr la recherche a besoin d’études sur de telles villes. D’ailleurs elles sont foison. Les partisans de The City sont sans doute de bonne foi lorsqu’ils affirment que tous les types de villes doivent être étudiées et comparées entre elles : les villes globales autant que les villes ordinaires. Mais la littérature académique est essentiellement composée de travaux sur les villes occidentales, qui demeurent dans l’esprit des chercheurs (occidentaux ou non) l’épigone du modèle urbain. Le poids de l’histoire en est en partie la cause. La recherche en urbanisme est initialement une recherche occidentale. Mais celleci a tardé à sortir des cadres et des schémas hérités du passé et surtout à s’affranchir des limites d’un monde urbain strictement occidental. Dans l’esprit de beaucoup de chercheurs, la ville ou le monde urbain sont avant tout des entités appartenant au monde occidental (Europe et Amérique du Nord). Il est 51 donc compréhensible que toute une série de travaux de comparaison s’est alors construit renforçant encore davantage sa position dominante. BEAUREGARD critique fortement cette « essentialisation » ou cet « universalisme » de la ville car en érigeant Los Angeles comme « la ville », on disqualifie les autres, celles qui sont différentes, de par leur construction, évolution... Ainsi malgré les déclarations de principes sur le nécessaire éclectisme des villes à comparer, on retombe souvent sur une comparaison avec une poignée de villes occidentales Car oui les villes « périphériques » sont étudiées mais en définitif leurs analyses sont constamment ramenées aux évolutions et caractéristiques des villes occidentales. Comme le souligne le sociologue Raewyn CONNELL (2007), il existe un biais méthodologique : « les données issues de la périphérie sont traitées selon des cadres, des concepts, des questions et des méthodes de recherches issues, elles, du centre. Comme si la production sociale de cette périphérie n’existait pas (CONNELL, 2007). Se pose aussi la question de la pertinence des résultats. Est-il possible de monter en généralité sur un échantillon de villes aussi restreint et étroits (ABU-LUGHOD et HAY, 1977)? Déjà en 1975, John Walton critiquait vertement sa discipline en qualifiant les résultats de particulièrement partisans et étroits d’esprit (« The great majority of urban research has been incredibly parochial »). Qui plus est, la comparaison entre un même nombre de villes entraîne à bâtir et à raffiner des idéaux-types au lieu de construire véritablement une théorie à partir de la diversité des villes (ROBINSON, 2002). Le biais des usual suspects
Ainsi bien que les chercheurs soient convaincus de l’importance du poids de l’histoire et de la géographie, tout se passe comme si un tout petit nombre de villes accaparent l’attention. MCFARLANE les appellent les usuals suspects : Los Angeles, New York, Londres, Paris et Barcelone. Ces comparaisons tournent en rond à force de répétitions et aboutit à un épuisement des hypothèses. Selon PICKVANCE et PRETECEILLE (1991), le ver serait déjà dans le fruit puisque la comparaison appellerait la recherche de similitudes. Et par conséquent, les objets de la comparaison ne peuvent que se situer dans un même environnement économique et politique. Ainsi on comprendrait une ville occidentale en la comparant avec une autre ville occidentale. Cette logique explique pourquoi un tel monopole de quelques villes (occidentales) dans la recherche académique. En ce sens, l’appel de Jennifer Robinson pour une plus grande ouverture quant au choix des villes étudiées est légitime. Ainsi les villes africaines comme Lusaka ou asiatique comme Kuala Lumpur sont ignorées alors qu’elles constituent un pôle majeur dans l’économie du monde musulman ou du textile de seconde main. Un pan considérable du monde urbain échappe ainsi à l’analyse. Ce qui est dommageable selon Jennifer ROBINSON pour la mise en œuvre de 52 politique de développement. Son ouvrage est un plaidoyer pour une recherche urbaine plus ouverte qui prendrait effectivement en compte la réalité et la diversité des mondes urbains. Elle est aussi une fervente avocate du comparatisme car s’aventurer à aller voir d’autres lieux moins étudiés et les mettre en résonances avec ceux plus étudiés ne peut qu’être sources d’enseignements. Cette confrontation permet aussi à chacun des sites analysés de prendre une autre couleur et ainsi d’être perçu différemment. Là encore il s’agit de sortir des cadres préconstruits d’un système binaire où seules quelques villes mériteraient d’être analysées et seulement selon des critères eux-aussi prédéfinis.
Un dévoiement de la méthode comparative
Ces biais empruntés par les études urbaines auraient dû être évités si on se réfère aux principes de la méthode comparative. Selon Cécile VIGOUR (2005), l’utilisation de la méthode doit permettre une prise de distance par rapport à ce qui est familier. Elle est l’occasion pour le chercheur de décentrer son regard. Tandis que dans les exemples cités plus haut, elle participe au contraire à renforcer un certain ethnocentrisme ou européocentrisme. En réalité, le dépaysement que doit induire la comparaison ne se produit pas car les termes de la comparaison appartiennent au même univers culturel particulier. La distanciation ne se fait pas. Il y a donc précisément en la matière un dévoiement de la méthode. Il y a un refus (inconscient?) de voir l’altérité dans le fait urbain. Cet évitement aboutit fatalement à passer à côté d’éclairages et surtout de connaissances (VIGOUR, 2005). « C’est en vertu de tels principes de ruptures et de mise en suspens cognitif que la stratégie comparative devient génératrice de doutes et de question fructueuses ». (SCHULTHEIS, 1989). En effet, en refusant d’inclure des villes d’autres aires culturelles, on les exclut de la sphère scientifique. De plus l’étroitesse des « échantillons » limite également les tentatives pour généraliser. A force de cas de plus en plus semblables, s’éloigne cette recherche de discordances à la base de la méthode comparative (VIGOUR, 2005). On ne retrouve pas dans l’utilisation faite par la recherche anglo-saxonne de la méthode comparative, ses deux principales caractéristiques : « la richesse et la diversité de l’analyse comparative ainsi qu’une logique de contraste » (VIGOUR, 2005).
3.2. SHANGHAI EST-ELLE UNE VILLE GLOBALE?
Shanghai a été sujet à ces observations « à courte vue ». L’ouvrage de Saskia SASSEN (1991) sur les villes globales a connu un large écho au sein de la communauté scientifique. Il s’inscrivait pleinement dans un contexte où la question de la mondialisation accaparait le devant la scène. L’auteur montrait chiffres à l’appui que des réseaux de flux financiers et de services tertiaires s’organisaient autour de trois pôles urbains : New-York, Londres et Tokyo. Le concept de « ville mondiale » fait alors florès. Shanghai n’échappe à la question : est-elle une ville globale? : The global and local dimensions of place-making: remaking Shanghai as a world city. Urban Studies, (WU, 2000), Shanghai: remaking China’s future global city. World, (WU, WEIPING et YUSUF, 2004), From suburbia to post-suburbia in China? Aspects of the transformation of the Beijing and Shanghai global city regions (WU et PHELPS, 2008). Shanghai rising: State power and local transformations in a global megacity (CHEN (dir.), 2009). La problématique de la globalisation de Shanghai est loin d’être illégitime. Sans l’ouverture économique de la Chine, la métamorphose urbaine de Shanghai n’aurait pas eu lieu. Son insertion dans les échanges internationaux a permis de financer la modernisation de la ville comme le démontre l’article de Yehua WEI, Chi Kin LEUNG et Jun LUO (2006), « Development zones, foreign investment, and global city formation in Shanghai. Growth and Change ». L’intégration aux échanges commerciaux
Ces chercheurs montrent le poids et le rôle des investissements directs étrangers (IDE) dans le financement des infrastructures de Shanghai. A la différence des villes côtières du Sud (Shenzhen ou Guangdong), Shanghai a peu profité des réformes économiques des années 1980. Durant la période 1978-1990, la ville détient un des plus bas taux de croissance industriel chinois et attire relativement peu les IDE. La principale raison de cette situation est qu’elle n’a pas obtenu le statut de Zone économique spéciale dont a bénéficié et Shenzhen et Guangdong. Ce statut autorisait ces deux villes à une certaine autonomie ainsi qu’une plus souplesse (moins de restrictions) en matière d’accueil des IDE. Mais alertés par le retard de la ville par rapport aux villes du Sud, les autorités centrales décident au début des années 1990 de revenir sur cette mise à l’écart de Shanghai. Cette décision est en fait liée à l’approbation du projet de Pudong, soit la création d’un quartier d’affaires (Lujiazui) sur la rive est du Huangpu, qui était totalement occupée par des champs agricoles. Figure 16 : Montants des IDE en milliards de dollars US à Shanghai (1981-2002) Source :
WEI, LEUNG
et LUO, 2006
Comme on peut le voir sur la figure 16, l’année 1992 est une année de rupture avec une très forte augmentation des IDE : la principale raison est la mise en œuvre du projet Lujiazui en 1991. Jusqu’alors ils étaient d’un montant relativement faible et concernaient essentiellement des districts centraux tels que Xuhui ou celui plus excentré de Jiading (usine Volkswagen). Le relâchement des mesures encadrant les IDE conjugué à une moindre retenue des taxes fiscales par le pouvoir central explique le boom des IDE : entre 1992 et 1997, 86,9% des 18 667 contrats étrangers étaient des IDE soit un total représentant 40,1 milliards de dollars US. Signalons que ces IDE prenaient pour 65,5% la forme de joint-venture (structure obligeant la société étrangère à avoir un partenaire local). Les autorités locales souhaitaient financer leurs projets mais sans perdre pour autant le contrôle et conserver la direction des opérations. La crise financière asiatique de juillet 1997 provoque une diminution des IDE mais cette baisse ne dure que trois ans et dès 2001, ils retrouvent progressivement les niveaux d’avant crise. On assiste néanmoins à une modification des formats des investissements : désormais 49,5% des sociétés étrangères le sont à 100%. Les autorités locales ont accepté de relâcher leur contrôle même si l’autre moitié des sociétés étrangères continuent à opérer avec un partenaire local. Pudong représente 45,1% de la destination des IDE. Ce qui distingue les IDE à Shanghai par rapport aux autres provinces chinoises est la nature des structures étrangères qui s’y implantent. Elles sont en moyenne plus importantes (2,3 millions dollars US) et appartiennent au top 500 des firmes internationales. Ainsi en 2002, 299 parmi elles avaient déjà installé à Shanghai soit des 55 bureaux, soit des usines. Pékin en comptait deux fois moins et Tianjin, trois fois moins. Au-delà des montants très importants des IDE, la nature très « corporate », c'est à dire essentiellement des firmes internationales témoigne de la coloration très internationale, voire « globale » de l’environnement économique shanghaien. Ceci explique que la ville soit devenue ou redevenu la ville chinoise la plus ouverte aux influences extérieures. Car accueillir des flux financiers signifie également accueillir des cadres, des salariés, des familles étrangères. La présence de ces firmes internationales renforce aussi le positionnement économique de Shanghai en tant que principale centre économique du pays et principale porte d’entrée. Les chercheurs ont été nombreux à chercher des réponses de la transformation des villes chinoises dans les effets de la mondialisation. Ainsi dans Transforming China’s globalizing cities (WU et MA (dir.) 2006) les auteurs s’interrogent à la fois sur l’irruption de l’économie de marché et son impact sur la fabrication de l’espace urbain et surtout sur le rôle de l’Etat en matière de gestion foncière et de régulateur du marché immobilier. Ils remettent en question l’idée d’une occidentalisation des villes chinoises et préfèrent évoquer des dynamiques complexes requérant de nouvelles approches théoriques. On ne peut, selon eux, expliquer l’urbanisation de la Chine comme la simple transition d’une économie planifiée à une économie de marché. En réalité différentes forces sont en action derrière ce phénomène. Certes on assiste à l’implantation massive d’éléments et de structures très américains comme les centres commerciaux ou bien les gated communities ou encore les autoroutes urbaines. Ils sont en fait que la matérialisation de ces forces et dynamiques qu’il s’agit d’identifier et de comprendre. Bien sûr la mondialisation qui s’est traduit pour la Chine par une augmentation considérable des investissements directs étrangers et une insertion croissante dans les échanges commerciaux, est un facteur externe important dans la modification des paysages urbains. Mais l’action des facteurs internes, propres au contexte et surtout aux enjeux chinois est de fait primordial dans ce phénomène d’urbanisation. C’est pourquoi il n’est pas judicieux de comparer la trajectoire des villes chinoises avec celles des villes occidentales. Les auteurs n’ont de cesse de pointer les spécificités socio-économiques, culturelles et institutionnelles de la Chine, rendant difficile la comparaison avec les pays occidentaux. Quelle est donc est leur position en la matière? Ils proposent le concept de villes en transition. Non pas dans le sens de la transition économique mais plutôt dans le sens de « villes en mutation ». Villes qui ne seraient pas encore parvenues à leur forme définitive. Et ces villes revêtiraient des aspects multiformes sous l’effet de forces elles même plurielles. Là où le bât blesse c’est l’imprécision et le flou de concept. Et autre paradoxe, certains des auteurs pour bâtir leurs analyses partent des exemples occidentaux allant jusqu’à davantage décrire des problématiques américaines (la multiplication des business centers ou la question de la mobilité résidentielle) que les processus en cours dans les villes chinoises. Les auteurs peinent à sortir de la simple 56 description des choses et à proposer pleinement une réponse sinon originale du moins en capacité à répondre à leur ambition de départ. Comme on peut le constater, l’étude de Shanghai reste prisonnière d’un certain nombre de déterminisme (elle n’est pas la seule). Comment procéder alors? Les chercheurs réunis au sein de l’Urban China Research Network ont tenté à leur tour d’apporter une réponse à la question de la catégorisation des villes chinoises.
| 48,379
|
2007EPXX0026_11
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,007
|
Etude de la production du J/psi dans le canal muonique dans les collisions Cu+Cu à 200 GeV par paire de nucléons dans l'expérience PHENIX
|
None
|
French
|
Spoken
| 7,025
| 11,676
|
VI.4.1.2 Effets froids dans les collisions Au + Au et Cu + Cu
En incluant les données Au + Au (à rapidité avant) en plus des données Cu + Cu, les figures VI.15(a) et VI.15(b) étendent la comparaison entre résultats et modélisations des effets froids à un plus large intervalle en nombre de nucléons participants. À N part donné, les prédictions des modèles ne dépendent que très peu du système considéré, aussi, pour plus de clarté, nous n’avons reporté sur ces figures que les estimations obtenues en considérant le système Au + Au. Nous étendons aux résultats Au + Au les conclusions précédemment formulées pour les collisions Cu + Cu : la suppression du J/ψ, de plus en plus importante avec N part, va au-delà des effets nucléaires froids pour N part ≥ 50 ; la magnitude de la différence entre la suppression observée et celle attendue augmente avec N part jusqu’à atteindre environ un facteur cinq dans les collisions Au + Au les plus centrales.
VI.4.1.3 Comparaison de la fraction d’effets froids à mi-rapidité et à rapidité avant
Nous avons vu à la section VI.3.1 (page 172) que la suppression du J/ψ observée dans les collisions Au + Au à mi-rapidité est inférieure à celle qui est vue à 186
Comparaison
aux modèles Capella & Ferreiro, hep-ph/0610313 1.3 RAA
y=2, σabs=0mb 1.2 Cu+Cu |y|∈[1.2,2.2] global syst. =
± 8
% 1.1 1 0.9 0.8 0.7 0.6 0.5 0.4 20 40 60 80 100 120 Npart (a) En trait plein, effet froid modélisé selon [83], décrit sous le nom de CF shadowing (pas d’absorption nucléaire) dans le texte. Vogt, nucl-
th/0507
027
CuCu y=2, σabs=0mb CuCu y=2, σabs=1mb CuCu y=2, σabs=3mb RAA 1.3 1.2 Cu+Cu |y|∈[1.2,2.2] global syst. = ± 8 % 1.1 1 0.9 0.8 0.7 0.6 0.5 0.4 20 40 60 80 100 120 Npart
(b) Les différentes courbes représentent les effets froids modélisés selon [76, 77], et sont obtenues d’après une modélisation EKS du shadowing et différentes valeurs de la section efficace d’absorption nucléaire (de 0 à 3 mb). La valeur de la section efficace favorisée par la comparaison des prédictions du modèle au données d + Au est en trait plein (σabs = 1 mb).
F. VI.14: Comparaison de la dépendance en centralité de la suppression
du J/ψ, observée vers l’avant en terme de rapidité, dans les collisions Cu + Cu à √ sNN = 200 GeV à différentes modélisations des effets nucléaires froids.
187 RAA VI
.
Ŕ ̀ Capella & Ferreiro, hep-ph/0610313
1.2 y=2, σabs=0mb 1 0.8 0.6 0.4 0.2 Cu+Cu |y|∈[1.2,2.2] global syst. = ± 8 % Au+Au |y|∈[1.2,2.2] global syst. =
± 7 % 0 50
100
150 200
250 300
350 400
Npart (a) En trait plein, effet froid modélisé selon [83], décrit
sous le nom de
CF shadowing (pas d’absorption nucléaire) dans le texte. RAA Vogt, nucl-th/0507027
AuAu y=2, σabs=0mb 1.2 AuAu y=2, σabs=1mb AuAu y=2, σabs=3mb 1 0.8 0.6 0.4 0.2 Cu+Cu |y|∈[1.2,2.2] global syst. = ± 8 % Au+Au |y|∈[1.2,2.2] global syst. = ± 7 % 0 50 100 150 200 250 300 350 400 Npart
(b
)
Les différentes courbes représentent les effets froids modélisés selon [76, 77], et sont obtenues d’après une modélisation EKS du shadowing et différentes valeurs de la section efficace d’absorption nucléaire (de 0 à 3 mb). La valeur de la section efficace favorisée par la comparaison des prédictions du modèle au données d + Au est en trait plein (σabs = 1 mb
). 188 F. VI.15: Comparaison de la dépendance en centralité de la suppression du J/ψ, observée vers l’avant en terme de rapidité, dans les collisions Cu + Cu et Au + Au √ à sNN = 200 GeV à différentes modélisations des effets nucléaires froids. Comparaison aux modèles rapidité avant, et ce dès N part ∼ 115. Dans l’hypothèse où les effets froids lors de collisions symétriques ne dépendent que très peu de la rapidité, la fraction d’effets froids à mi-rapidité sera donc plus importante que celle à grande rapidité. C’est le cas dans le cadre du modèle CF shadowing, où les effets froids obtenus à mi-rapidité ne diffèrent quasiment pas de ceux estimés à rapidité avant. Les estimations des effets froids dans le modèle EKS shadowing indiquent quant à elles une valeur plus importante à mi-rapidité qu’à grande rapidité, comme cela peut être constaté sur la figure VI.16(b). La conjugaison de ces deux effets implique qu’à mi-rapidité dans les collisions Au + Au : – la suppression du J/ψ reste compatible avec les effets froids jusqu’à N part ∼ 170 ; – la suppression au-delà des effets froids est plus modeste qu’à grande rapidité. VI.4.1.4 Les effets froids comme nouvelle référence
Afin de comparer plus aisément la suppression au-delà des effets froids à mirapidité et à rapidité avant, nous avons reporté sur la figure VI.17 le rapport du facteur de modification nucléaire divisé par les effets froids évalués selon le modèle EKS shadowing au N part considéré. Ce rapport sera désormais noté RAA /CNM11. La valeur de la section efficace d’abosrption est prise égale à 1 mb et les incertitudes inhérentes à l’évaluation de l’absorption nucléaire (entre 0 et 3 mb) sont sommées quadratiquement aux erreurs systématiques corrélées sur le RAA. Les erreurs systématiques relatives résultantes sont par conséquent bien plus importantes. Cette figure montre de manière explicite que la suppression au-delà des effets froids à mi-rapidité suit une évolution significativement différente de celle qui est observée à rapidité avant. Dans ce dernier cas, la suppression décroche assez vite de l’unité (au moins dès N part ∼ 50) et s’accentue de manière monotone jusqu’à grand N part. À mi-rapidité, RAA /CNM semble suivre un plateau, compatible avec l’unité, jusqu’à N part ∼ 170, valeur à partir de laquelle la suppression s’amorce jusqu’à atteindre une valeur plus modeste qu’à grande rapidité. VI.4.2 Comparaison des effets nucléaires froids au RHIC et au SPS
Sur la figure VI.18(a) est reportée la dépendance en centralité du facteur de modification nucléaire respectivement déterminée à mi-rapidité et à rapidité avant au RHIC (en Au + Au) et comparé au SPS (en S + U, In + In et Pb + Pb). Les effets froids respectifs sont également représentés : – au RHIC, ils ont été évalués selon le modèle EKS shadowing auquel s’ajoute une absorption nucléaire dont la section efficace est inférieure à 3 mb ; – au SPS, les effets froids mesurés dans les collisions p + A sont remarquablement bien ajustés selon l’équation (II.23) qui décrit l’absorption nucléaire, et ce avec σabs = 4, 18 ± 0, 35 mb. √ Ainsi, la section efficace d’absorption nucléaire semble diminuer avec sNN. Notons également que l’(anti-)shadowing semble négligeable au SPS, l’absorption nucléaire 11 CNM pour
Cold Nuclear
Matter effects
189 VI
.
Ŕ ̀ RAA
Vogt
, nucl-th/0507027
AuAu, y=0, σabs=0mb AuAu y=0, σabs=1mb AuAu y=0, σabs=3mb 1.2
1
0.8
0.6 0.4 0.2
0 Au+Au |y|
<0.35 50 100 150 global syst.
=
± 12 % 200 250 300 350 400 Npart
(a) Estimation de la fraction d’effets froids dans la suppression du J/ψ en fonction de la centralité dans les collisions Au + Au à mi-rapidité. RAA Vogt, nucl-th/0507027
1.2 AuAu y=0, σabs=1mb AuAu y=2, σabs=1mb 1 0.8 0.6 0.4 0.2 0 Cu+Cu |y|∈[1.2,2.2] global syst. = ± 8 % Au+Au |y|
<0.35 global syst. = ± 12 % Au+Au |y|∈[1.2,2.2] global syst. = ± 7 % 50 100 150 200 250 300 350 400 Npart (b) Estimation de la fraction d’effets froids dans la suppression du J/ψ en fonction de la centralité à mi-rapidité et à rapidité avant. La rapidité considérée dans la modélisation des effets froids est indiquée dans la légende. F. VI.16: Dépendance en centralité de la suppression du J/ψ, observée à rapidité centrale ou vers l’avant dans les collisions Au + Au, observée vers l’avant unique√ ment dans les collisions Cu + Cu à sNN = 200 GeV, comparée à la modélisation EKS shadowing [76, 77] des effets nucléaires froids. Les différentes courbes représentent différentes valeurs de la section efficace d’absorption nucléaire (de 0 à 3 mb). 190 Comparaison aux
m
odèles RAA/CNM Cu+Cu |y|∈[1.2,2.2] global syst. = ±
8
% Au+Au |y|<0.35 1.2 global syst. = ± 12 % Au+Au |y|∈[1.2,2.2] global syst. = ± 7 % 1 0.8 0.6 0.4 0.2 0 50 100 150 200 250 300 350 400 Npart
F. VI.17: Dépendance en centralité
du
facteur de modification nucléaire
normalisé par
les effets froids
évalués selon le modèle EKS shadowing. Les incertitudes dues à σabs sont additionnées quadratiquement aux erreurs systématiques corrélées sur le RAA. seule décrivant de manière satisfaisante la suppression normale du J/ψ dans les collisions p + A aux énergies du SPS. La figure VI.18(b) montre la dépendance en centralité du rapport RAA /CNM au RHIC et au SPS. Au SPS, la suppression vue lors des collisions S + U est entièrement décrite par les effets nucléaires froids. C’est également le cas jusqu’à N part ∼ 100 dans les collisions In + In et Pb + Pb. Au-delà, la suppression déterminée au SPS dévie des effets froids. Au RHIC, en raison de l’effet conjugué des incertitudes sur le RAA et sur les effets froids, le rapport RAA /CNM déterminé dans les collisions Au + Au à mi-rapidité suit un comportement similaire à celui observé au SPS.
VI.4.3 Au-delà des effets froids
Nous avons établi qu’à RHIC, la suppression du J/ψ dans les collisions Cu + Cu √ et Au + Au à sNN va effectivement au-delà des effets nucléaires froids, et ce malgré d’importantes incertitudes sur la détermination desdits effets froids. Il faut à présent essayer de comprendre quels sont les mécanismes supplémentaires de suppression à l’oeuvre. Ceux-ci se rangent dans deux catégories de modèles : ceux qui considèrent que la suppression observée reste « normale » c-à-d. non imputable à la formation du QGP, et ceux dont les implications découlent de l’hypothèse de formation du QGP. 191 VI. Ŕ ̀ RAA Vogt, nucl-th/0507027
AuAu, y=0, σabs=0mb Au
Au
y=0, σabs=1mb Au
A
u y=0, σabs=3mb SPS σabs=4.18 ± 0.35 mb 1.2 1 0.8
0.6 0.4 0.2 0
50 100 150 200 250 300
350 400 Npart RAA/CNM (a) Effets nucléaires froids et dépendance en centralité du facteur de modification nucléaire √ déterminé dans les collisions Au + Au à sNN = 200 GeV à mi-rapidité au RHIC, et à √ mi-rapidité au SPS dans les collisions S + U, In + In et Pb + Pb à sNN = 17 GeV. Au+Au
|
y
|
<0.35 SPS y
∈
[0,1] NA50, Pb-Pb NA60, In-In NA38, S-U 1.2 global syst. = ± 12 % global syst. = ± 11 % 1 0.8 0.6 0.4 0.2 0 50 100 150 200 250 300 350 400 Npart (b) Dépendance en centralité du rapport du facteur de modification nucléaire déterminé à mi-rapidité au RHIC et au SPS sur les effets froids correspondants. F. VI.18: Comparaison du facteur de modification nucléaire et des effets froids au RHIC et au SPS. Les effets froids sont évalués selon le modèle EKS shadowing à RHIC, et selon une absorption nucléaire de section efficace 4, 18 ± 0, 35 mb au SPS.
192 Comparaison
aux
modèles
Les premiers comme les seconds ont rendu compte des données du SPS avec succès. Nous verrons donc dans un premier temps ce que prédisent ces modèles lorsqu’extrapolés à l’énergie du RHIC. Leur comparaison avec les résultats expérimentaux au RHIC ont favorisé l’émergence d’une nouvelle classe de modèles, s’appuyant sur la recombinaison. Nous verrons dans un deux ième temps la confrontation de ces modèles aux mêmes résultats expérimentaux. Enfin, nous ré-examinerons la pertinence du modèle original de dissociation séquentielle des charmonia comme mécanisme de suppression anormale du J/ψ. VI.4.3.1 Modèles en accord avec les données du SPS Dissociation due à l’interaction avec des co-voyageurs RAA Capella & Ferreiro, hep-ph/0610313 σabs=0mb σco=0.65mb
y
=0
1.2 y=0,
comover density
-20%
y=2 1 Cu+Cu |y|∈[1.2,2.2] global syst. = ± 8 % Au+Au |y|<0.35 0.8 global syst. = ± 12 % Au+Au |y|∈[1.2,2.2] global syst. = ± 7 % 0.6 0.4 0.2 0 50 100 150 200 250 300 350 400
Npart F. VI.19: Confrontation du modèle des co-voyageurs [86, 83] aux résultats expérimentaux du RHIC sur la dépendance en centralité de la suppression du J/ψ √ dans les collisions Cu + Cu et Au + Au à sNN = 200 GeV. Les courbes représentent les prédictions du modèle pour une section efficace d’absorption nucléaire σabs = 0 mb et une section efficace d’interaction inélastique de la paire cc̄ avec les co-vayageurs σco = 0, 65 mb : en trait plein à rapidité avant, en tireté et en pointillé à mi-rapidité. La courbe en pointillé est obtenue en diminuant la densité initiale de co-voyageurs de 20%.
À l’instar de l’interaction inélastique de la paire cc̄ avec les nucléons (conduisant à l’absorption nucléaire), les auteurs du modèle des co-voyageurs [86] envisagent l’idée selon laquelle le J/ψ peut être détruit par les interactions avec des particules 193 VI. Ŕ ̀ secondaires, qui se meuvent à la même vitesse relative que le J/ψ (d’où leur nom de co-voyageurs12 ). Lors des collisions d’ions, ces interactions n’ont une probabilité significative de détruire
le J/ψ
que si la densité N co (b, s, y) des co-voyageurs dans le milieu produit est supérieure à la densité N pp obtenue dans les collisions p + p. En négligeant l’expansion transverse du milieu créé, l’évolution de la densité de covoyageurs avec le temps propre τ suit une loi en 1/τ. La probabilité de survie du J/ψ est alors la solution de l’équation différentielle [86] : dN J/ψ (b, s, y) N co (b, s, y) = −σco N J/ψ (b, s, y) dτ τ (VI.9) où N J/ψ est la densité de J/ψ par unité de surface transverse d2 s, b est le paramètre d’impact, s désigne les coordonnées d’un point sur la surface transverse, y est la rapidité et σco est la section efficace d’interaction inélastique moyenne du J/ψ avec les co-voyageurs. Il s’agit d’une moyenne car les résonances ψ(2S ) et χc qui se désintègrent en J/ψ sont aussi considérées, ainsi que les différentes espèces de hadrons qui constituent la population de co-voyageurs. Au SPS, le modèle permettait de décrire la suppression anormale observée dans les collisions Pb + Pb avec σco = 0, 65 mb. Cette valeur de la section efficace est considérée comme inchangée au RHIC. La solution de cette équation s’écrit en fonction de la densité initiale Nco de co-voyageurs : "!#
N co
(b, s,
y)
S co
(
b
,
s) = exp −σco N co (b, s, y) ln
(VI
.10) N
pp où : – la densité initiale de co-voyageurs N co est calculée selon le Dual Parton Model [128], utilisé pour décrire la production de particules et qui reproduit effectivement les multiplicités observées ; – la dissociation du J/ψ par les interactions avec les co-voyageurs s’arrête quand N co (b, s, y)
= N pp. Notons qu’une densité initiale de co-voyageurs plus importante est requise au RHIC par rapport au SPS puisque la multiplicité totale au RHIC est environ deux fois plus élevée qu’au SPS [129]. Il en résulte une probabilité de survie du J/ψ plus faible au RHIC qu’au SPS. Quant à la valeur de N pp, elle est déterminée à rapidité nulle à partir de la mesure de la multiplicité de hadrons chargés dans les collisions p + p : dNch 3 dy pp, y=0 N pp = (VI.11) 2 πR2p où le facteur 3/2 permet de recouvrer la multiplicité non-mesurée emportée par les hadrons neutres. Au RHIC, N pp ∼ 2, 24 fm−2, ce qui est supérieur à la valeur trouvée pour le SPS (N pp ∼ 1, 15 fm−2 ).
12 194 En anglais, comovers.
Comparaison aux
modèle
s
Les effets importants du shadowing au RHIC conduisent aussi à une diminution de la production de particules secondaires. Aussi convient-il de tenir compte de leur impact au niveau de la densité initiale de co-voyageurs, en corrigeant celle-ci du facteur de réduction S sh (b, s, y) dû au shadowing : N co (b, s, y) −→ N co (b, s, y) S sh (b, s, y) (VI.12) Le modèle CF shadowing a été utilisé par les auteurs de [86] au RHIC. Notons qu’au SPS, une telle correction par S sh (b, s, y) est inutile vu que le shadowing y est négligeable. Par contre, il faut y tenir compte de l’absorption (rappelons qu’à l’énergie du RHIC, les mêmes auteurs argumentent qu’elle est nulle). La raison est la suivante : dans le modèle des co-voyageur s, seuls les charmonia qui ont survécu au passage dans la matière nucléaire peuvent ultérieurement souffrir des interactions avec le milieu créé, peuplé de co-voyageurs hadroniques. La figure VI.19 montre la dépendance en centralité de la suppression du J/ψ prédite aux énergies du RHIC dans les collisions Au + Au. Le comportement prédit dans les collisions Cu + Cu est très proche de celui évalué dans le cadre du modèle pour un même N part. Le modèle fournit une évaluation de la suppression à mi-rapidité et à rapidité avant, ainsi que l’effet de la diminution de la densité initiale de covoyageurs (−20%) à mi-rapidité. Nous pouvons
constater que :
– Le modèle donne une estimation
de
la suppression trop pessimiste
à
mirapid
ité
, en compara
ison des données,
et
trop optimiste à rapidité avant. Or rappelons que le CF shadowing est quasi-indépendant de la rapidité dans le cas de collision d’ions symétriques. En conséquence, la dépendance de l’amplitude de la suppression avec la rapidité reflète la dépendance de la probabilité de survie du J/ψ associée aux seules interactions avec les co-voyageurs. Cela est cohérent avec le fait que la densité initiale de co-voyageurs est plus importante à mi-rapidité, où la multiplicité de particules est la plus élevée, qu’à rapidité avant. Ce résultat peut d’ailleurs être généralisé à tout modèle de suppression fondé sur la densité initiale (que ce soit de co-voyageurs hadroniques ou de partons déconfinés), puisque la densité à mi-rapidité est toujours supérieure à celle à rapidité avant. – Une diminution de 20% de la densité initiale de co-voyageurs permet à la prédiction à mi-rapidité du modèle d’être en meilleur accord avec la limite inférieure des données Au + Au à mi-rapidité. Dissociation due à des gluons thermiques durs
Cette catégorie de modèles repose sur les idées suivantes. L’énergie de liaison du J/ψ est élevée. Elle peut être estimée [21, 19] selon la différence de masse existant entre le seuil de production du charme ouvert et la masse du J/ψ : ∆E J/ψ = 2MD − M J/ψ'0, 64 GeV, ce qui est significativement supérieur à ΛQCD. En conséquence, la taille du J/ψ est bien plus faible que celle d’un hadron typique : r J/ψ'0, 2 fm Λ−1 QCD'1 fm. Ceci implique qu’une fois formé, le J/ψ ne peut être dissocié que par des gluons suffisamment durs, d’énergie au moins de l’ordre de ∆E J/ψ. Or 195 VI. Ŕ ̀ l’impulsion moyenne des gluons au sein d’un hadron n’est que d’environ un dixième de GeV, ce qui indique que la contribution de ces gluons à la dissociation du J/ψ est marginale13. En comparaison, l’impulsion portée en moyenne par les gluons issus d’un mileu déconfiné est de l’ordre de 3T : pour une température T > 1, 15T c, les gluons peuvent donc dissocier le J/ψ (et à moindre température, le le ψ(2S ) et le χc ), suivant la réaction g + Ψ → c + c̄ (VI.13) où Ψ désigne un charmonium générique. Cette réaction se produit à un taux qui est fonction de la distribution de l’impulsion k des gluons fg (k, T ) dans le milieu déconfiné et de la section efficace σdiss associée au processus. Les gluons sont supposés thermalisés, de sorte que ces modèles sont applicables à un temps τ0 à partir duquel le QGP est thermalisé. Typiquement, τ0'0, 6 fm/c au RHIC, et τ0'1 fm/c au SPS. La section efficace σdiss peut être calculée suivant la pQCD [130] et est de l’ordre de 1, 5 mb [131]. Nous comparons ci-après trois exemples de modèles différents, abondamment cités dans la littérature. Les modèles de Xu [130] et de Thews [132, 133] utilisent la valeur de σdiss calculée lorsque le processus (VI.13) se produit dans le vide. Le modèle de Rapp [134, 135, 131] considère que σdiss dépend de l’énergie de liaison du Ψ dans le milieu, cette énergie de liaison est à son tour dépendante de la température du milieu. Par exemple, pour le ψ(2S ) et pour le χc, l’énergie de liaison est approximativement nulle au-dessus de T c. Pour le J/ψ, ∆E J/ψ = 250 MeV à T'170MeV, elle décroît à ∆E J/ψ'100 MeV à T = 230MeV, et s’annule vers T'360MeV. Dans ce cas, la section efficace de la gluo-dissociation (VI.13) devient inefficace et le processus dominant est plutôt la dissociation « quasi-libre » p + Ψ → p + c + c̄ (VI.14) où p désigne un parton quelconque (quark, anti-quark ou gluon). Les réactions de dissociation mènent à une décroissance du nombre de Ψ en fonction du temps propre selon : dNΨ = −Γdiss NΨ (τ) (VI.15) dτ où le taux de dissociation Γdiss dépend de la température T (τ) du milieu. Lorsque T ≥T c, le taux de dissociation est celui dû aux processus (VI.13) ou (VI.14). Par exemple, selon Rapp, Γdiss s’écrit : X Z ∞ d3 k Γdiss = f (k, T ) vrel σdiss (s) (VI.16) 3 i (2π) k min i=q,q̄,g où kmin est l’impulsion minimale nécessaire au parton pour pouvoir dissocier le Ψ, et s le carré de l’énergie disponible dans le centre de masse de la réaction de dissociation, et vrel est la vitesse relative initiale des participants à la réaction. Les expressions 13 Notons que c’est là un argument de poids formulé à l’encontre du modèle des co-voyageurs hadroniques. 196
Comparaison aux modèles du taux de dissociation utilisées par Xu et par Thews sont similaires. La densité de partons dans le milieu intervient grâce à fi (k, T). Le taux de dissociation est donc plus important lorsque cette densité est plus forte. Ces modèles impliquent donc une suppression du J/ψ plus importante au RHIC qu’au SPS. La probabilité de survie du Ψ est déduite du taux de dissociation selon : SΨ QGP (τ) " Z = exp − τ τ0 0 0 ΓΨ diss (τ )dτ # (VI.17) La température T (τ), quant à elle, dépend de la température initiale T 0 à τ0 et de l’évolution du système. Après le temps τ0, le QGP subit une expansion isentropique VT 3 = constante dans le modèle de Rapp et de Thews ; dans celui de Xu, l’évolution du QGP est gouvernée par les équations hydrodynamiques obtenues en considérant une expansion longitudiale et des conditions initiales invariantes par boost de Lorentz. Notons qu’en raison de ces approximations, ces modèles ne sont valables qu’à rapidité nulle. Cependant, comme la densité de partons participants aux réactions de dissociation décroît avec la rapidité, la suppression correspondante de J/ψ sera plus importante à mi-rapidité qu’à plus grande rapidité, ce qui est justement le contraire de ce qui est observé au RHIC. Notons également la particularité suivante du modèle de Xu : celui-ci inclue des équations de transport classiques (par opposition aux équations de transport relativistes) du Ψ dans le QGP. Les prédictions de suppression du J/ψ (les désintégrations des résonances de masse supérieure au J/ψ étant incluses) sont présentées en fonction de N part sur la figure VI.20(a) pour le modèle de Thews et sur la figure VI.20(b) pour les modèles de Rapp et Xu. Les prédictions présentées pour le modèle de Thews correspondent à deux températures initiales distinctes T 0 = 500 MeV et T 0 = 350 MeV : la sensibilité du modèle à la température initiale est impressionnante. Nous voyons que dans le premier cas, les J/ψ sont quasiment tous supprimés dès les collisions périphériques, ce qui est bien trop pessimiste en regard des résultats expérimentaux au RHIC. Dans le cas d’une température initiale plus modérée, la suppression annoncée s’accorde aux données Au + Au à mi-rapidité jusqu’à N part ∼ 150, puis devient trop optimiste par rapport à la suppression dont témoignent ces mêmes données. Quant aux modèles de Rapp et Xu, la dissociation prédite est une surestimation de la suppression effectivement observée dans les données Au + Au à mi-rapidité au RHIC. Ceci et le fait que ce type de modèle prédit plus de suppression à mi-rapidité qu’à grande rapidité indiquent qu’un mécanisme supplémentaire affecte la production du J/ψ au RHIC. Ce mécanisme doit être capable de compenser la suppression de manière différentielle avec la rapidité. Il s’agit de la recombinaison, que nous allons aborder dans la section suivante. 197 VI. Ŕ ̀ RAA Thews, hep-ph/0609121, y=0 dissociation only, T =500 MeV 0 dissociation only, T =350 MeV
1.2 0 1
Cu
+
Cu
|
y|∈
[1.2
,2.2] global syst
. = ±
8 % global
syst
. =
± 12 % Au+Au
|y|
<0.35 0.8 Au+Au
|y
|∈[1.2,2.2] global syst.
= ± 7 % 0.6 0.4 0.2 0 50 100 150 200 250 300 350 400 Npart (a) Comparaison aux données de la suppression par gluo-dissociation du J/ψ dans le QGP au RHIC prédite par le modèle de Thews [132, 133]. Les courbes correspondent à deux températures initiales différentes. RAA dissociation, y=0 Rapp hep-ph/0608033 Xu nucl-th/0608010 1.2 1 Au+Au |y|<0.35 global syst. = ± 12 % 0.8 0.6 0.4 0.2 0 50 100 150 200 250 300 350 400 Npart (b) Comparaison aux données de la suppression par gluo-dissociation ou par dissociation quasi-libre du J/ψ dans le QGP au RHIC respectivement prédites par le modèle de Xu [130] et celui de Rapp [134, 135, 131].
F. VI.20: Dépendance en centralité de la suppression du J/ψ observée au RHIC comparée aux prédictions de différents modèles de dissociation du J/ψ de manière dynamique par les partons du bain thermique du QGP. 198
Comparaison aux modèles VI.4.3.2 De la recombinaison à RHIC? Principe et signatures de la recombinaison
L’idée. – Tous les modèles considérés jusqu’ici reposent sur l’idée que le charme n’est produit qu’aux premiers instants de la collision, et ce en raison de sa masse élevée : la densité d’énergie diminuant avec l’expansion du milieu, elle est supposée très vite insuffisante pour que la production de charme puisse encore avoir lieu. Selon cette hypothèse, le nombre de J/ψ initial ne peut donc que décroître suite à un écrantage de couleur ou à une gluo-dissociation par le QGP (ou suite à l’interaction du J/ψ avec les co-voyageurs). Mais aux énergies du RHIC, un nombre Ncc̄ élevé de paires cc̄ (environ 10) sont produites dans les collisions Au + Au les plus centrales. Ce constat, associé au fait que les quarks lourds peuvent se mouvoir librement dans le milieu déconfiné, conduit à explorer un nouveau mécanisme de production du J/ψ aux énergies du RHIC : la recombinaison de quark c et c̄ issus de collisions différentes (cette production procède par quarks dit « non-diagonaux », en opposition au cas où la paire de quarks « diagonaux » qui forment la résonance ont été produits lors d’une même collision). La recombinaison en compét
ition
avec
les
processus
de dissociation. – Le nombre de J/ψ produits par recombinaison va comme le nombre de combinaisons de quarks 2. Ce mécanisme peut donc très vite devenir charmés possibles, autrement dit en Ncc̄ dominant lorsque Ncc̄ 1. Ce nombre de paires cc̄ augmentant avec la centralité, la composante en J/ψ issus de la recombinaison augmente également en fonction de la centralité. De plus, comme le nombre de paires cc̄ initiales disponible est plus important à mi-rapidité qu’à rapidité avant, le nombre de J/ψ issus de la recombinaison sera plus important à mi-rapidité qu’à rapidité avant, ce qui pourrait permettre d’expliquer pourquoi une suppression moindre est observée au RHIC à mi-rapidité comparée à la suppression à rapidité avant. Une autre manière de voir la recombinaison est de dire que les processus de gluo-dissociation (et de dissociation quasi-libre) sont réversibles. Il y aura donc compétition entre le taux de dissociation et le taux de formation. L’évolution du nombre de ψ en fonction du temps est alors de la forme [132, 133] : dNΨ = λF Nc Nc̄ [V(τ)]−1 − λD N J/ψ ρg dτ (VI.18) où – λF et λD correspondent respectivement à la « réactivité » du processus de formation et de dissociation, la réactivité étant définie comme la valeur moyenne hσF,D.vrel i du produit de la section efficace de formation ou de dissociation avec la vitesse relative des participants en entrée de la réaction ; – ρg est la densité de gluons, égale à la valeur prise à l’équilibre thermique dans le milieu pour chaque température considérée ; – V(τ) est le volume du milieu déconfiné (en expansion) ; – Nc et Nc̄ représentent le nombre de c et de c̄ présents initialement. 199
VI. Ŕ ̀ dσcc/dy (μb)
Sources d’incertitudes dans les modèles. – L’évolution du nombre de J/ψ issus de la recombinaison dépend de manière cruciale du nombre de paires cc̄ initialement présentes (cf équation (VI.18)). Ici intervient donc la section efficace de production du cc̄, dont les estimations sont entâchées d’une large barre d’erreur aujourd’hui, comme nous pouvons le constater sur la figure VI.21. La section efficace de production du charme obtenue par le calcul dans le cadre de la pQCD [136] est indiquée en trait plein, avec une marge d’erreur importante matérialisée par la bande jaune. Elle pQCD +95,6 vaut dσcc̄ = 63, 7−42,3 μb. Dans PHENIX, la section efficace de production du charme est déduite de la mesure du taux de production de charme ouvert à partir des électrons non-photoniques résultants de la désintégration semi-leptonique des mésons D, une fois que les électrons photoniques ont été soustraits (ces électrons sont dus à la désintégration Dalitz des mésons neutres légers, suivie de la conversion des photons résultants en électrons lors du passage dans la matière constituant les détecteurs). La mesure récente de dσ/dy = 123 ± 47 μb à mi-rapidité par PHENIX [137] est en accord avec les résultats de pQCD. Quant à STAR [138], la section efficace de production du charme est obtenue à partir du taux de production des mésons D0 et D̄0 qui sont directement reconstruits. Les barres d’erreurs sont importantes ; le résultat de STAR est cependant en désaccord avec celui de PHENIX et avec les résultats de pQCD : 300 ± 98 μb. 450 pQCD 400 √sNN =200 GeV STAR 350 PHENIX 300 250 200 150 100 50 0 -4 -2 0 2 4
y F. VI.21: Dépendance en rapidité de la section efficace de production du charme dans les collisions p + p, calculée selon pQCD [136] ou mesuré par PHENIX [137] et STAR [138]. Figure extraite de [139]. 200
Comparaison aux modèles
Une autre source d’erreur dans les modèles concerne la distribution en impulsion des quarks c et c̄ initialement produits. Selon qu’ils soient thermalisés ou pas, l’importance du processus de recombinaison diffère. Les modèles estiment l’incertitude associée en calculant l’importance de la recombinaison dans ces deux cas de figure extrêmes. Dans le deuxième cas, la distribution en impulsion peut être calculée d’après pQCD [130] via des diagrammes d’ordre α3s. L’impulsion ainsi obtenue est éventuellement augmentée d’un kick [133] en impulsion transverse kT2 pour prendre en compte de manière phénoménologique l’augmentation de la valeur moyenne hkT2 i due aux diffusions multiples des partons initiaux. Différents modèles de recombinaison. – Les modèles de recombinaison diffèrent essentiellement sur : – la fraction de J/ψ initialement présents et qui sont détruits avant d’être recombinés (ils sont tous détruits [139] ou partiellement détruits [130, 133] avant que le processus de recombinaison ne débute) ; – le fait que le processus de recombinaison se fait majoritairement de manière continue [130, 133] (du moins tant que le milieu déconfiné existe), en suivant l’équation (VI.18), ou de manière « soudaine », c-à-d. de manière statistique [139, 135] au moment de l’hadronisation et selon la densité et la proximité dans l’espace des phases des quark s c et c̄. Les premiers modèles sont dits cinétiques, et les seconds sont dits statistiques. La condition d’équilibre thermique du QGP est indispensable aux modèles statistiques. La particularité des modèles statistiques [139] est de considérer qu’aucun charmonia n’est produit avant le temps de formation τ0 du QGP ou que tous les charmonia produits avant τ0 ont été dissouts dans le QGP. Tester la recombinaison Dépendance en centralité. – Une preuve flagrante de la recombinaison serait que la suppression du J/ψ en fonction de la centralité se transforme en une augmentation dès que le nombre de paires cc̄ produites initialement est suffisamment important pour que la production du J/ψ par recombinaison domine la suppression par le QGP. Ce n’est certes pas le cas aux énergies du RHIC14. Il reste donc à estimer la fraction de J/ψ issus de la recombinaison, et voir si la somme de la suppression et de la recombinaison permet de rendre compte des données mieux que ne l’ont fait les modèles uniquement basés sur la dissociation du J/ψ dans le QGP. Les figures VI.22(a) et VI.22(b) illustrent la dépendance en centralité obtenue selon deux modèles différents de dissociation et de recombinaison, le modèle de Thews [132] et celui de Rapp [134]. Les processus de dissociation au sein des deux modèles ont déjà été expliqués précédemment (cf page 195). Dans le modèle de Thews, la recombinaison est cinétique. Celui de Rapp est un modèle « hybride », où la recombinaison est décrite 14 Mais de nombreuses prédictions dans ce sens existent par contre aux énergies du LHC où le processus de recombinaison devrait être dominant. 201 VI. Ŕ ̀ de manière statistique, mais où les J/ψ produits initialement ne sont pas tous détruits avant que ne débute la recombinaison. Ces figures montrent que l’ajout d’une composante de recombinaison améliore sensiblement l’accord des modèles avec les données. Dépendance en rapidité. – Le nombre de paires cc̄ initialement produites est plus élevé à mi-rapidité qu’à grande rapidité. En conséquence, la distribution en rapidité du taux de production du J/ψ sera plus étroite dans le cas où le processus de recombinaison est activé qu’en son absence. Elle sera donc plus étroite dans les collisions d’ions que dans les collisions p + p où la recombinaison n’est pas attendue. Cela est illustré de manière qualitative sur la figure VI.23. Comme ce nombre augmente avec la centralité, nous nous attendons aussi à ce que la distribution en rapidité du taux de production de J/ψ rétrécisse avec la centralité de la collision, plus précisément avec N part dans le cas d’une comparaison de deux systèmes différents. Ces prédictions peuvent être comparées à ce que nous savons en Cu + Cu et en Au + Au (cf section VI.3.2, page 176) de l’évolution en N part de : 1. la largeur de BdN/dy en fonction de la rapidité ; 2. l’allure de la dépendance du RAA en fonction de la rapidité. Concernant #1, l’absence des données à mi-rapidité en Cu + Cu rend difficile l’estimation de la largeur de la distribution en terme de RMS. Quant aux données Au + Au, l’importance des barres d’erreurs implique que le scénario de recombinaison n’est pas exclu. Concernant #2, la figure VI.10 (page 179) montre que le RAA en fonction de y passe d’une forme en V à une forme convexe : à mesure que N part augmente, la suppression à grande rapidité s’accentue plus vite que la suppression à mi-rapidité, autrement dit BdN/dy mesuré dans les collisions d’ions rétrécit avec N part comparé à la forme de référence en p + p. Cela est en faveur de l’ du processus de recombinaison au RHIC. Dépendance
en impuls
ion
transverse. – Dans un grand nombre de modèles, le hp2T i intrinsèque des J/ψ produits aux premiers instants de la collision provient de l’impulsion transverse gagnée par les partons initiaux en raison de leur diffusion multiple (marche aléatoire). Dans cette interprétation, le hp2T i croît avec la centralité, conduisant ainsi à ce qu’il est convenu d’appeler l’élargissement du hp2T i. Dans le cas de la recombinaison, il faut considérer le fait que les paires cc̄ initiales sont préférentiellement produites à basse impulsion transverse pT < 2 GeV/c. En conséquence, la recombinaison procède plus souvent avec des quarks c et c̄ de bas pT. Les J/ψ résultants ont un hp2T i moyen plus faible que lorsqu’ils sont produits aux premiers instants de la collision. La figure VI.24 compare aux données les prédictions de l’évolution du hp2T i des J/ψ en fonction de la centralité, selon que les J/ψ soient issus des premiers instants de la collision ou qu’ils ont été produits par recombinaison. Il est difficile de
202 Comparaison aux modèles RAA Thews, hep-ph/0609121, y=0 dissociation only, T =500 MeV 0 total (thermal), T =500 MeV 0 total (pQCD), T =500 MeV 0 recombination, T0=500 MeV 1.2
1
Au+Au |y|
<0.35 0.8 global syst. = ± 12 % 0.6 0.4 0.2 0 50 100 150 200 250 300 350 400 Npart
(a)
Modèle de Thews [132]. Le nombre total de J/ψ obtenus peut varier de manière significative selon que la distribution d’impulsion des quarks c et c̄ initiaux est thermiques ou issue de calculs pQCD. Le total obtenu dans chaque cas est reporté sur la figure. RAA Rapp, hep-ph/0608033, y=0 dissociation recombination total 1.2 1 Au+Au |y|<0.35 global syst. = ± 12 % 0.8 0.6 0.4 0.2 0 50 100 150 200 250 300 350 400 Npart (b)
Modèle de Rapp [134]. F. VI.22: Compétition entre les processus de suppression et de recombinaison du J/ψ dans le QGP, tels qu’ils sont décrits par deux modèles différents, et comparaison de leur somme
au fa
cteur
de
modification
nu
clé
aire du J/ψ
mesuré
dans les c
ollision
s Au + Au à mi-rapidité au RHIC.
203 VI. Ŕ ̀
F. VI.23: Comparaison de la distribution en rapidité de la production du J/ψ en l’absence de recombinaison (triangles rouges) et dans le cas extrême où toutes les J/ψ sont formés par recombinaison (cercles bleus). Figure extraite de [133]. conclure. Dans les deux cas, les prédictions théoriques sont entachées d’une erreur importante. Mais le fait que le hp2T i en fonction de Ncoll s’avère plutôt plat en regard de l’ensemble des données (en particulier les données p + p et Cu + Cu bénéficiant d’une grande précision) semble plutôt en faveur de la recombinaison. L’incertitude sur les prédictions théoriques indiquées sur la figure montre que les mesures réalisées dans les deux dernières tranches des collisions Au + Au les plus centrales sont déterminantes pour discriminer les deux scénarios. Mais ce propos doit être fortement nuancé par le fait que l’élargissement du hp2T i tel qu’il est décrit par la théorie repose sur l’extrapolation à grand Ncoll de l’élargissement constaté entre le hp2T i mesuré à rapidité avant dans les collisions p + p recueillies durant le Run 3 [91] et les collisions d + Au. Or les données récemment publiées du Run 5 p + p [73], bénéficiant d’une plus grande statistique et d’un meilleur contrôle des erreurs systématiques, indiquent que le hp2T i mesuré dans les collisions p + p est du même ordre que celui mesuré dans les collisions d + Au, autrement dit l’élargissement du hp2T i est marginal lorsque nous passons de p + p à d + Au. Nous devons donc souligner ici qu’une réévaluation de l’évolution du hp2T i avec Ncoll est en conséquence nécessaire dans le scénario sans recombinaison avant de pouvoir émettre des conclusions plus prononcées en faveur ou non de la recombinaison. VI.4.3.3 Retour aux sources : la dissociation séquentielle des charmonia
L’idée La formulation originale [40] du J/ψ comme sonde du milieu est la suivante : étant donnée l’importance de l’énergie de liaison du J/ψ, celui-ci ne peut être dissocié par les gluons mous des hadrons, mais le serait par les gluons suffisamment
204 < pT2 > [(GeV/c)2] Comparaison aux modèles 6 5 Thews, hep-ph/0609121 Direct In-medium 4 3 Cu+Cu p+p p+p Au+Au Au+Au 2 1 0 1 10 |y| ∈ [1.2,2.2] |y| < 0.35 |y| ∈ [1.2,2.2] |y| < 0.35 |y| ∈ [1.2,2.2] 102 103 Ncoll
F. VI.24: Évolution du hp2T i des J/ψ en fonction de Ncoll mesuré dans divers types de systèmes à RHIC et comparé à l’évolution prédite par [132] selon que les J/ψ soient produits par recombinaison (en trait plein) ou pas (en pointillé). durs qui peuplent l’état déconfiné. La suppression du J/ψ devient ainsi une signature non-équivoque du plasma. Plus récemment, les derniers résultats de la QCD sur réseau indiquent que le J/ψ peut survivre jusqu’à environ 1, 5 à 2T c. Parmi les autres charmonia, le sort du ψ(2S ) et du χc nous intéressent particulièrement vu que, par leur désintégration en J/ψ, ils participent à sa production indirecte. Ces charmonia sont aussi dissociés par le QGP, mais à des températures inférieures à celle de dissociation du J/ψ en raison de leur plus faible énergie de liaison. Le tableau VI.6 résume les propriétés ainsi évoquées de ces trois états du charmonium. Ce tableau montre que la dissociation des charmonia se produit de manière séquentielle avec la montée en température du QGP ou, de manière équivalente, avec l’augmentation de la densité d’énergie15 : il s’agit donc d’un effet de seuil. En conséquence, leurs fontes successives peuvent servir de « thermomètre » du milieu déconfiné créé, et ce par l’intermédiaire de la mesure de la fraction de J/ψ qui subsiste après suppression. Ce modèle de dissociation séquentielle [140] implique que la probabilité de survie du J/ψ s’écrit : S = F J/ψ. S J/ψ + Fχc. S χc + Fψ(2S ). S ψ(2S ) (VI.19) où : – S i désigne la probabilité de survie de chaque charmonium dans le milieu, c-àd. le J/ψ produit de manière directe, le ψ(2S ) et le χc ; – Fi représente les différentes fractions de la production du J/ψ due aux charmonia sus-cités.
15 Rappelons que la densité d’é
nergie ε augmente en T 4.
| 38,853
|
49/hal.archives-ouvertes.fr-hal-02944256-document.txt_1
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 479
| 751
|
" Gender fluid " : les adolescents ?
aujourd'hui « Gender fluid » : les adolescents à l'assaut du genre? Entretien avec Arnaud Alessandrin Sociologue, Arnaud Alessandrin est sociologue à l'université de Bordeaux1
La quête d'identité des adolescent/e/s s'est longtemps traduite par un investissement de nouveaux courants musicaux ou styles vestimentaires. Depuis quelques années, cette période de transition semble aussi marquée par la revendication de nouvelles catégories sexuelles, qui contestent les frontières du masculin et du féminin. À quand remonte cette tendance? Il faut d'abord rappeler que l'identité de genre n'est pas un phénomène de mode, mais une demande de reconnaissance et de droits légitime dans les sociétés contemporaines. En revanche, ce qui est fluctuant, c'est la façon dont des gens se nomment. Depuis cinq ans, on observe une augmentation nette du nombre de jeunes qui se disent « gender fluid » – tantôt homme, tantôt femme – ou « agenre » – ni homme ni femme. Il reste pourtant difficile d'en évaluer la proportion : selon les instituts de sondage, 14 % des jeunes pourraient être concernés, ce qui semble fortement surestimé. Pour l'heure, nous savons que la part des personnes LGBTIQ (4) s'inscrivant dans cette dynamique n'excède pas 13 % et que parmi elles, 72 % ont moins de 25 ans. S'agit-il d'un phénomène marginal ou le signe d'une transformation sociale plus profonde? Ce qui est certain, c'est que cette évolution terminologique s'inscrit dans une tendance plus ancienne d'augmentation de la visibilité et de l'acception sociale des questions LGBTIQ. Par ailleurs, l'investissement par les jeunes de ces questionnements relatifs à l'identité de genre dépasse de loin la seule affiliation à une catégorie, mais peut prendre des formes variées incluant l'adoption d'un style vestimentaire non genré, ou l'usage d'un surnom correspondant mieux à son identité de genre. 1 Alessandrin Arnaud, Dagorn Johanna, Anastasia Meidani, Richard Gabrielle, Toulze Marielle, Santé LGBT, Bord de l'eau, 2020 Alessandrin Arnaud, Actualités des trans studies, Edition des Archives contemporaines, 2019. Alessandrin Arnaud, Sociologie des transidentités, Cavalier bleu ed. 2018. Quel rôle les copains jouent-ils dans l'investissement par les jeunes de ces nouvelles identités? Des recherches canadiennes ont montré que plus les catégories gender fluid ou queer étaient perçues comme légitimes au sein d'un groupe de pairs, plus nombreux étaient les jeunes susceptibles de s'y identifier. Ceci est cohérent avec le rôle de facilitateur des coming
out que
peuvent jouer des commun
autés
nu
mérique
s de jeunes LGBTIQ sur les réseaux sociaux. L'interprétation de ce phénomène ne fait pourtant pas consensus : d'aucuns aimeraient
y
voir une
accréditation
de la thèse selon laquelle la non-binarité ne serait qu'une fable née de la dynamique groupale, là où il me semble plus pertinent de considérer l'influence émancipatrice de ces pairs qui, grâce au partage d'expérience, vont permettre aux jeunes de répondre à la si difficile question « qui suis-je? » Propos recueillis par B. Kammerer.
| 4,317
|
dumas-03407264-Yap-Chim_Lindsay_32004741.txt_2
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,021
|
Quels sont les représentations, motivations et freins face à la prévention scolaire chez les enfants à La Réunion ?. Sciences du Vivant [q-bio]. 2021. ⟨dumas-03407264⟩
|
None
|
French
|
Spoken
| 7,550
| 13,500
|
Perspectives de soins et recherche
Le rôle du médecin généraliste traitant n’a été cité que par un seul participant de
l’étude,suggérant une carence de la prévention solaire en médecine générale.15 Des études ont
démontré un manque de formation sur la prévention solaire des étudiants en médecine.16
D’autres travaux suggèrent l’intérêt de réaliser une prévention dès la crèche afin d’acquérir
des connaissances pour changer les comportements de manière plus marquée.17 L’impact réel
de ce type d’intervention sur les dommages liés au soleil doit être mesuré lors d’une étude de
plus grande envergure.
Conclusion
La protection solaire des enfants en milieu scolaire est une responsabilité à la fois scolaire,
parentale et sociale. Une amélioration de la communication entre ces acteurs est nécessaire.
Des campagnes de prévention solaire sur l’exemple Australien et un aménagement des lieux
de vie scolaire sont primordiales pour une meilleure protection des enfants.
REFERENCES
1. Ward W, Farma J. Cutaneous Melanoma Etiology and Therapy. Brisbane (AU): Codon
Publications. 2017. http://www.ncbi.nlm.nih.gov/books/NBK481860
2. Bray F, Ferlay J, Soerjomataram I, et al. Global cancer statistics 2018: GLOBOCAN
estimates of incidence and mortality worldwide for 36 cancers in 185 countries. Cancer
J Clin. 2018;68:394-424.
3. Global Cancer Observatory. Cancer today. http://gco.iarc.fr/today/home. Cité le 28 février,
2019.
35
4. Smith BJ, Ferguson C, McKenzie J, et al. Impacts from repeated mass media campaigns to
promote sun protection in Australia. Health Promot Int. 2002;17:51-60.
5. Justine Warocquier. Données épidémiologiques des mélanomes cutanés à la Réunion
en 2015. Médecine humaine et pathologie. 2016. dumas-01369508
6. Green A, Wallingford S, McBride P. Childhood exposure to ultraviolet radiation and
harmful skin effects: Epidemiological evidence. Prog Biophys Mol Biol. 2011;107:349-55.
7. Andreola G, Carvalho V, Huczok J, et al. Photoprotection in adolescents: what they know
and how they behave. An Bras Dermatol. 2018;93(1):39-44.
8. Reinau D, Meier C, Gerber N, et al. Sun protection behavior of primary and secondary
school students in North-Western Switzerland. Swiss Med Wkly. 2012;142:w13520
9. Nicolas Breton. La protection solaire à La Réunion : connaissances et comportements chez
les enfants et les parents en 2017-2018. Sciences du Vivant [q-bio]. 2019. dumas-02155851
10.Tong A, Sainsbury P, Craig J. Consolidated criteria for reporting qualitative research
(COREQ): a 32-item checklist for interviews and focus groups. Int J Qual Health Care. 2007;
19:349-57.
11. Littlewood Z, Greenfield S. Parents’ knowledge, attitudes and beliefs regarding sun
protection in children: a qualitative study. BMC Public Health. 2018;18: 207.
12. Handy RD, Owen R, Valsami-Jones E.
The ecotoxicology of nanoparticles and nanomaterials: current status, knowledge gaps,
challenges, and future needs. Ecotoxicology 17. 2008;315-325.
13. Dumoulin C, Thériault P, Duval J. Rapprocher l’école primaire et les familles par de
nouvelles pratiques de communication. Revue de l’Association Francophone Internationale
de Recherche Scientifique en Éducation. 2013;9 : 4-18.
14. Claudel M, Schneide B, Seiwert D. Rapprocher une école primaire et ses parents d'élèves.
Un outil québécois adapté à une école primaire en France. La revue internationale de
l'éducation familiale. 2012;32(2) : 97-120.
15. Le Gay D. Expériences, opinions et attentes des médecins généralistes en matière de
prévention solaire et de dépistage du mélanome dans les Alpes-Maritimes : étude qualitative
par entretiens semi-diriges. Medecine humaine et pathologie. 2015.<dumas-01286680>
16. Isvy A. Etudiants en médecine et prévention solaire : connaissances et pratiques.
2011 http://www.opengrey.eu/item/display/10068/857015
17. Taffou M, Dupuy A, Boussemart L. Réalisation et évaluation de sessions de formation à
la prévention solaire en crèche : satisfaction immédiate, acquisition des connaissances et
Vénéréologie. 2019;146(12) : A244.
36
37
38
39
Figure 1 : Modélisation globale
2)
40
Appendix 1 : Modélisation des résultats de l'étude sur les enseignants
Entraine
N’entraîne pas
Interaction majeure
41
Appendix 2 : Modélisation des résultats sur l'étude des enfants
Entraine
N’entraîne pas
42
Appendix 3 : Modélisation des résultats sur l'étude des parents
Entraine
N’entraîne pas
43
RÉSULTATS SPÉCIFIQUES AUX ENFANTS
1) Niveau d’implication de l’interne dans le travail de
recherche
A) Elaboration de la question de recherche et choix de la méthode
Le sujet de recherche m’a été proposé en mai 2019 par le Dr Bertolotti lors d’une
réunion pour les étudiants de 3ème année de médecine à laquelle les internes volontaires étaient
conviés pour leurs donner quelques informations utiles concernant l’externat. Une première
réunion a eu lieu le 8 août 2019 avec Dr Leruste, Dr Bertolotti et les deux autres chercheuses
Mathilde Marx (M.M) et Cassie Ah-Mouck (C. A-M). Au cours de cette réunion nous avons
élaboré ensemble la question de recherche commune à chaque population « Quels sont les
représentations, freins et motivations face à la prévention solaire dans les écoles à La
Réunion ? » chez les enseignants (pour M.M), parents d’élèves (pour C.A-M)) et enfants
(pour moi-même). Ensemble et après discussion nous avons aussi fait le choix de la méthode
qui nous paraissait la plus appropriée : une analyse qualitative avec entretiens individuels
semi directifs utilisant le principe de théorisation ancrée.
En Septembre 2019, une autre réunion a eu lieu au cours de laquelle il a été décidé de
la méthode de recrutement. Il nous paraissait judicieux de présenter le projet par téléphone
aux directeurs des écoles faisant partie de l’association MiSolRé afin qu’ils nous aident au
recrutement des enfants, parents d’élèves et enseignants volontaires. Une autre réunion a été
organisée avec les 3 chercheuses et les deux directeurs de thèse (S.L et A.B) afin de
commencer à concevoir les canevas d’entretiens (Annexe 1). Nous avons créé conjointement
une fiche explicative du projet ainsi qu’une fiche de recrutement de volontaire (Annexe 3)
destinées à être distribuées et affichées dans les écoles avec nos coordonnées pour que les
volontaires de chaque population contactent la chercheuse concernée. Un document « accord
parental » destiné à être distribué aux élèves volontaires ainsi que la « fiche caractéristiques
des volontaires » ont été élaborées (Annexe 2). Au cours de ces réunions ces documents ont
été relus et corrigés par les directeurs de thèse. J’ai en parallèle élaborée et envoyé à la faculté
ma fiche de projet de thèse et ma demande d’autorisation préalable de travail de thèse.
44
Des réunions régulières tout au long du travail de thèse ont été organisées entre les
trois chercheuses et/ou avec les deux directeurs de thèse pour évaluer régulièrement l’avancée
du travail et répondre aux questions que nous nous posions.
D) Recrutement
Initialement, le recrutement s’est déroulé en appelant les écoles partenaires de
l’association MiSolRé dans l’ouest et le sud de l’île pour des raisons d’organisation. Cela
correspondait à 50 écoles primaires. Au final, sur ces 50 écoles contactées sur la période du
mois de novembre 2019, seuls 23 entretiens téléphoniques avec les directeurs ont eu lieux, les
autres écoles étant restées injoignables sur cette période. À la suite de ces 23 entretiens
téléphoniques, un mail a été envoyé aux directeurs intéressés. Ce mail contenait les
informations concernant l’étude, une fiche « recherche de volontaires » (Annexe 3) à afficher
dans les écoles et des documents explicatifs pour les potentiels volontaires, avec les
coordonnées des chercheuses à contacter. Sur ces écoles, 2 ont refusé la participation au
projet. Dans les 21 écoles restantes, le recrutement d’élève a été très pauvre avec seulement
deux volontaires qui se sont désistés par la suite. M.M a réalisé plusieurs « sessions » d’appel
des écoles, avec des relances toutes les semaines environ sur les mois de novembre et
décembre 2020 pour les directeurs qui étaient intéressés mais ne correspondaient cependant
pas par mail. Vers le mois de novembre 2019, C.A-M et moi-même nous sommes rendues sur
notre temps libre dans une école de Trois-Bassins lors d’une matinée porte-ouvertes afin de
présenter le projet et commencer un recrutement pour les 3 populations. Quelques élèves de
CM1 et CM2 et leurs parents se sont portés volontaires ainsi que deux enseignants. Les élèves
et parents d’élèves initialement intéressés se sont désistés par la suite le temps des vacances
de Noël. Compte tenu de la crise COVID qui a suivi, il a été décidé d’élargir le recrutement à
tous les enfants d’école primaire, sans pour autant que leurs écoles fassent partie de
l’association. Le recrutement s’est donc fait par « effet boule de neige » et à l’aide notamment
de publication sur Facebook® sur des groupes d’entraide ainsi que par un mail d’information
envoyé par le Dr BERTOLOTTI. Le recrutement s’est fait majoritairement dans l’entourage
plus ou moins proche des chercheuses. Le premier entretien était l’enfant d’une connaissance
de M.M. Le deuxième était celui d’un parent qui s’est porté volontaire suite au mail de A.B, 3
enfants ont été recrutés via « l’effet boule de neige ». Au total, 14 enfants se sont portés
volontaires pour participer à l’étude. 45
E) Rédaction partie « contexte » et bibliographie sur le sujet
La rédaction de cette partie qui constitue la justification de notre travail de recherche a
été débutée par M.M en juin 2019. La rédaction a été appuyée sur les thèses d’Aurèlie
MONIE et de Nicolas BRETON citées plus haut et réalisées aussi en partenariat avec
l’association qui portaient sur le même thème : la prévention solaire. La bibliographie a été
étayée par une recherche conjointe des trois chercheuses d’articles récents et pertinents. J’ai
modifié et corrigé conjointement avec C.A-M le premier jet de la rédaction le long de
l’avancée du travail de recherche pour arriver au résultat final qui vous est présenté. Une
déclaration de conformité a été acceptée par la Commission nationale de l’informatique et des
libertés par chacune des chercheuses concernant son étude.
F) Recueil de données
Les entretiens se sont déroulés entre décembre 2019 et octobre 2020. Ils ont eu lieu au
domicile de l’enfant (E1, E3), dans un resto-snack à la sortie scolaire (E2), à mon domicile
(E4), au domicile de C.A-M où elle a réalisé les entretiens de E5, E6, E7, E8, E9, E10, 11,
pour des raisons pratiques, ainsi que par visio-conférence par moi-même (E12, E13, E14). Les
rendez-vous étaient pris par téléphone suite à la présentation du projet. J’ai par ailleurs réalisé
l’entretien de l’enseignant numéro 8 à son domicile ainsi que de 4 parents. Dans tous les cas
les entretiens étaient enregistrés sur support audionumérique. Avant chaque entretien, je
remplissais avec le volontaire (et son parent si nécessaire) la « fiche caractéristiques
volontaire » (Annexe 2) et le consentement écrit signé en deux exemplaires. Ces documents
®
étaient anonymisés, scannés et conservés dans des dossiers sécurisés sur la Dropbox
commune protégée par un mot de passe de connexion connu des trois chercheuses et des
directeurs de thèse. L’étude était présentée comme un travail destiné à mieux comprendre les
comportements de protection solaire. Le canevas d’entretien évolutif pour les enfants s’
articulait autour de deux questions « brise-glace » : 1) Qu’est ce que tu fais tous les jours pour
te protéger du soleil ? 2) Qu’est-ce que tu penses qu’il faudrait faire pour se protéger du soleil
? Les entretiens débutaient par le recueil des caractéristiques socio démographiques et
médicales de l’enfant à visée descriptive.
46
G) Retranscription et analyse des données
Une fois les entretiens réalisés, je les ai retranscrits mot à mot sur un logiciel de
traitement de texte. J’ai ensuite analysé tous les entretiens mot à mot pour en dégager les
unités de sens. Ces extraits de verbatim ont été colligés dans un tableau Excel® associés à
l’unité de sens correspondante. Ce travail était réalisé au fur et à mesure de mon avancée dans
les entretiens pour aboutir à ma grille de codage ouvert finale.
J’ai ensuite effectué ce travail minutieux sur les entretiens retranscrits par les autres
chercheuses concernant leurs populations et elles en ont fait de même pour les miens afin de
réaliser une triangulation des données. Les divergences ont été résolues par discussion et en
faisant appel à nos directeurs de thèse. Nous avons ensuite comparé les grilles de codage
ouvert résultants de l’analyse de chaque population afin d’en avoir une idée plus globale. Une
fois ce travail de triangulation réalisé avec par ailleurs l’aide de nos directeurs de thèse,
chaque chercheuse a réalisé le codage axial. En effet, une fois ma grille de codage ouvert
définitive obtenue, j’ai regroupé les unités de sens pour faire émerger les concepts pour
arriver à ma grille de codage axial définitive présentée en Annexe 4 et à la construction de la
théorie.
H) Rédaction des parties « résultats » et « discussion » de la population
enseignants
L’étape suivante a été, via la grille de codage axial obtenue, de réaliser une
modélisation explicative de mes résultats. J’ai donc réalisé d’abord à la main puis avec un
logiciel spécialisé (Microsoft Power Point®) le schéma explicatif de mes résultats présenté
plus bas dans la partie correspondante. Il m’a permis la rédaction de la partie résultats et de la
discussion de ma thèse. A des fins pratiques, j’ai par ailleurs réalisé informatiquement les
modélisations de M.M et C.A-M sur la base d’une forme papier qu’elles avaient produites
pour leur population respective.
I) En parallèle : écriture de l’article
Sur la base des modélisations réalisées par chaque chercheuse pour résumer les
résultats principaux obtenus pour sa population, nous avons au cours d’une réunion avec
l’aide des Drs Leruste et Bertolotti réalisé un schéma global synthétisant ces trois
modélisations. Cette « modélisation globale » présentée dans la partie « article » été la
47
synthèse des résultats des trois populations permettant de répondre à la question de recherche
« Quels sont les représentations, freins et motivations face à la prévention solaire dans les
écoles à La Réunion ? ».
Sur la base de cette modélisation globale a été rédigé l’article en travail conjoint des
trois chercheuses. Tout d’abord l’introduction de l’article a été écrite en résumé de la partie
contexte ci-dessus. Avec un travail de recherche des trois chercheuses et en suivant les
recommandations de certains des co-auteurs, une bibliographie spécifique à l’article a été
réalisée. L’introduction a été travaillée et retravaillée tour à tour par chacune des chercheuses
puis présentée aux directeurs de thèse. Grace à l’aide du Dr Bertolotti elle a pu être
synthétisée et raccourcie en un minimum de mots. Il en est de même pour la partie
« Résultats », la partie « Discussion » et le résumé de l’article. Une visioconférence a eu lieu
avec les trois chercheuses, les directeurs de thèses et les co-auteurs afin de discuter du travail
à effectuer. Un travail minutieux de lecture, relecture et correction du travail ont permis
d’aboutir à l’écriture de la version finale de l’article qui a été présenté aux co-auteurs : Pr
Beylot Barry, Dr Sultan Bichat, Dr Dumez et Dr Spodenkiewicz. Suite à leurs retours, de
multiples modifications ont été apportées à l’article tour à tour par les chercheuses selon leurs
disponibilités familiales et professionnelles.
J) Travail annexe :
J’ai réalisé avec l’aide des autres chercheuses un document Power Point® destiné à
être présenté à certaines classes de CM1 et CM2 faisant partie de l’association MiSolRé pour
leur parler des effets négatifs du soleil et faire la promotion de la prévention solaire. Nous
avions commencé à organiser notre passage dans certaines écoles avec les directeurs d’écoles
mais cela ne s’est jamais fait car est survenue la crise COVID.
48
2) Résultats
A) Caractéristiques des entretiens
Les entretiens ont été effectués à La Réunion entre décembre 2019 et octobre 2020.
Initialement, le recrutement s’est déroulé en contactant par téléphones les écoles partenaires
de MisolRé dans l’ouest et le sud de l’île pour des raisons d’organisation. Cela correspondait
à 50 écoles primaires. Sur ces 50 écoles contactées sur la période du mois de novembre 2019,
seuls 23 entretiens téléphoniques avec les directeurs ont eu lieu, les autres écoles étant restées
injoignables sur cette période. A la suite de ces entretiens téléphoniques, un mail a été envoyé
aux directeurs intéressés. Il contenait les informations concernant l’étude, une fiche
« Recherche de volontaires » (Annexe 4) à afficher dans les écoles et des documents
explicatifs pour les volontaires, avec les coordonnées des chercheuses à contacter. Sur ces 21
écoles trois enfants se sont portés volontaires ainsi que deux autres lors d’une visite des
chercheuses dans une école de Piton-Saint-leu. Compte tenu du rythme des vacances scolaires
et le contexte Covid, 4 enfants se sont désintéressés du projet et 1 a été perdu de vue. Il a alors
été décidé d’élargir le recrutement à tous les enfants volontaires par « bouche-à-oreille » ou se
trouvant dans l’entourage des chercheuses ne prenant plus en compte le critère d’appartenance
aux écoles partenaires de MisolRé. Au total 14 enfants se sont portés volontaires. La
suffisance théorique des données a été obtenue au bout du 13ème entretien.
B) Caractéristiques de la population étudiée
La fiche « caractéristique des volontaires » remplie avant chaque entretien a permis de
recenser les informations qui paraissaient intéressantes pour notre étude. Elles sont résumées
dans le tableau suivant :
A noter que les enfants y sont notés « E » apparaissant dans l’ordre chronologique de
participation à l’étude.
49
Figure 18 : Tableau des caractéristiques des volontaires
Enfant
Age
(années)
Genre
Phototype
Classe
ATCD de
coups de
soleil
ATCD familiaux de
mélanome
E1
7 ans
féminin
III
CE1
profession
intellectuelle
supérieure
<10
0
E2
8 ans
féminin
IV
CE2
profession
intermédiaire
<10
0
E3
7 ans
féminin
V
CE1
profession
intellectuelle
supérieure
<10
0
E4
8 ans
masculin
II
CE2
profession
intellectuelle
supérieure
>10 - <50
0
E5
9 ans
féminin
IV
CM2
profession
intellectuelle
supérieure
<10
0
E6
9 ans
féminin
IV
CM1
artisan
<10
0
E7
10 ans
féminin
V
CM2
employé
<10
0
E8
6 ans
masculin
IV
CP
employé
<10
0
E9
6 ans
masculin
V
CP
profession
intellectuelle
supérieure
<10
0
E10
8 ans
masculin
V
CE2
profession
intermédiaire
<10
0
E11
8 ans
masculin
II
CE2
employé
>10 - <50
0
E12
7 ans
masculin
III
CE1
employé
>10 - <50
0
E13
7 ans 1/2
féminin
IV
CE2
profession
intellectuelle
supérieure
<10
0
E14
8 ans
masculin
V
CM1
sans activité
<10
0
Niveau socioéconomique
des parents
ATCD :
Antécédents
a) Age
50
L’analyse des données recueillies concernant la population étudiée montre que sur les 14
enfants participants à l’étude, l’âge des participants variait de 6 ans (E8, E9) à 10 ans (E7)
avec une moyenne d’âge de 7,8 ans.
b) Genre
Il peut être remarquée une répartition équitable des genres pour cette étude avec 7 filles et
7 garçons.
c) Niveau de classe d’enseignement
La population étudiée est répartie sur tous les niveaux de classe du CP au CM2 avec
une plus grande proportion d’élève en classe de CE2. (Figure 20)
Figure 19: Diagramme de répartition des niveaux de classe
Niveau de classe
6
5
4
3
1
0
Niveau de classe
CP
CE2
CM2
d) Phototype
Le graphique suivant reprend la composition de la population étudiée en fonction de
leur phototype : (Figure 20)
Figure 20 : Diagramme de répartition des phototypes de la population des enfants
51
6
5
5
5
4
2
3
1
2
0
0
0
Phototype I PhototypePhototype V
III
Il ressort que les phototypes IV et V étaient majoritairement représentés dans cette population.
e) Antécédents de coups de soleil
Seuls 3 des enfants ont pris plus de 10 et moins de 50 coups de soleil. (Figure 22)
Figure 21 : Proportion des antécédents de coups de soleil
12
11
9
6
3
3
0
0
<10
>10 et <50
>50
f) Niveau socio-économique familial
La tendance majeure du niveau socio-économique familial des enfants participants à l’étude
était la classe des professions intermédiaires supérieures. (Figure 23)
Figure 22 : Répartition des niveaux socio-économiques
52
Niveau socio-économique
7% 7%
29%
43%
Agriculteur exploitant
ArUsan, commerçant et chef d'entreprise
Cadre et profession intellectuelle supérieure
Profession intermédiaire
Employé
Ouvrier
Retraité
Sans acUvité
14%
53
3) Résultats principaux
Figure 23 : Modélisation des résultats de l’étude sur la population des enfants
N’entraîne pas
Entraîne
Les principaux résultats collectés de cette étude sont présentés dans le schéma ci-dessus
Exposition en contexte scolaire, activité physique et vie personnelle
La réalisation de cette étude a fait ressortir une multiplicité des situations d’exposition.
Elles étaient représentées d’une part par le milieu scolaire « quand je suis à l’école » (E1),
« dans la cour de récréation » (E1, E6, E9) avec notamment les différentes activités
physiques pouvant s’y dérouler : « quand je fais du sport (à l’école) » (E1), en « classe de
mer » (E3),
54
« à la piscine avec l’école » (E6) ou « sur le terrain » (E9). D’autre part elles étaient
représentées par les activités du milieu personnel ou familial : « à la plage » (E1, E2, E4, E5,
E7, E8, E9), « au basket » (E2), pour « les balades en vélo » (E5), « pendant les
entraînements de foot » (E10), « en randonnée » (E14).
L’île de La Réunion est un territoire où « il y a beaucoup de soleil » (E1) avec des plages
horaires identifiées où l’exposition est extrême mais correspondent aussi aux moments où les
enfants sont le plus exposés à l’école « à midi pendant la récré il y a beaucoup de soleil »
(E3), « le soleil tape le plus fort entre 12h et 14h » (E10), « on y va vers 15h, 15h et demi
(sport/gymnase) » (E6)
Habitudes de protection, automatismes et connaissances
Les habitudes de protection des enfants s’identifiaient en protection active par l’usage
majoritaire de la « casquette » (E1, E2, E4, E5, E6, E7, E8, E9, E10, E11, E12, E13, E14) ou
du « chapeau » (E1, E2, E3, E6, E9, E12) mais aussi de la « crème solaire » (E1, E2, E3, E4,
E5, E8, E9, E10, E11, E12, E13, E14) et pour certains par l’emploi de « lunettes de soleil »
(E3, E4, E9, E11, E12, E13), de « manches longues » (E4, E7) ou encore plus spécifiques à la
plage ou la piscine, du « lycra » (E2, E4, E13). La protection passive était représentée par les
comportements d’évitement. Les enfants cherchaient à se mettre à « l’ombre » (E2). Pour cela
« se mettre sous un arbre » (E1), « j’essaye de partir sous un pied de bois » (E6) ou encore
« on joue au maire sous le préau » (E5, E7, E10) étaient identifiés comme les principales
méthodes pour éviter une exposition trop intense.
Ces moyens employés pour se protéger s’exprimaient sous la forme d’automatismes et
d’initiatives : « j’essaye de me protéger » (E2), « j’y pense tout seul (crème solaire » (E2),
« j’essaye de rester à l’ombre » (E6), « je prends ma casquette tout seul » (E10). Un
phénomène d’adhésion est également retrouvé chez plusieurs enfants « ça t’embête de mettre
de la crème ? Réponse : Non » (E4, E5, E10).
La pratique plus ou moins assidue de ces méthodes « pour une fois (chapeau) » (E2), « en
général (casquette, crème, lunettes » (E5), « parfois (casquette) » (E9), « tout le
temps (casquette en randonnée) » (E14) est motivée par des connaissances sur le sujet, « il
faut pas s’exposer entre 12h et 14h » (E5), « quand il y a du soleil, l’eau va faire un effet
miroir sur ta peau » (E10) ainsi que connaissances des conséquences négatives sur la santé au
niveau cutané « ça fait mal les coups de soleil » (E2, E3, E4), « un cancer » (E4), « une
grosse tâche rouge » (E2, E7), « je noircis » (E6), « perdre la peau », (E11), « sinon tu cuis
comme une saucisse » (E14), mais aussi de manière plus générale caractérisée par le « mal à
la tête » (E7, E9, E10, E11, E12) ou la « maladie des yeux » (E11).
55
Les acteurs de la prévention
La prévention solaire des enfants passe par deux acteurs prépondérants à leur
éducation : les parents « ils me disent qu’il faut en mettre (crème solaire pour la plage) » (E2,
E5), « maman elle oblige » (E3), « maman elle nous l’a dit donc maintenant je trouve ça
important » (E4), « maman nous dit de se protéger » (E12) et les figures d’autorité du cadre
scolaire « les maîtresses » (E3, E6, E7, E9, E10), « les surveillants » (E10), « il faut mettre
une casquette (les dames de la cantine » (E1), « est-ce qu’on t’a déjà parlé du soleil à
l’école ? Réponse : Oui » (E11), « est-ce que c’est obligé de mettre la casquette à l’école
pour le sport ? Réponse : heu oui, je crois » (E14).
Une prévention solaire bien menée par ces deux piliers de l’éducation faisait naître une notion
d’importance de la protection solaire chez les enfants « je trouve ça important » (E4) ainsi
qu’une motivation surajoutée à se protéger « tu penses que tu pourrais mettre la crème dans
la cour de récré ? Réponse : Oui ! » (E6) « toi, tu aimerais mettre de la crème ? Réponse :
Bah ouai » (E12).
Dans le milieu scolaire, les comportements de prévention sont favorisés par la présence dans
certaines écoles de « préau » (E2, E5, E7, E10, E12, E14), de « beaucoup d’arbres dans la
cour » (E2, E3), de « gymnase… couvert » (E6)
Cette éducation se fait cependant parfois insuffisante « bah maman elle met pas la casquette
dans mon sac » (E6), « maman et papa te disent souvent de te protéger du soleil ? Réponse :
Non » (E14) et se reflète dans le déficit des comportements de protection des enfants par un
manque d’accès « pendant la récréation, il y a de l’ombre au fond mais on a pas le droit »
(E6), « c’est trop loin et après la maîtresse nous voit pas » (E6), « j’ai pas le droit sous le toit
à l’école » (E12) ou un manque de connaissance : « tu connais d’autre moyen de te
protéger ? Réponse : Non » (E3) « est-ce que tu penses qu’on peut avoir des maladies par
rapport au soleil ? Réponse : heu non » (E5), « à l’école les enseignants parlent un peu de la
protection solaire ? Réponse : Non pas du tout » (E2, E5, E6), et un manque de rappel aux
bonnes pratiques « est-ce que la maîtresse te dit d’être à l’ombre ? Réponse : Non » (E9).
Absence de protection
L’absence de comportements de protection se traduit chez les enfants par « quand il
n’y a pas de sport je mets jamais la casquette » (E1), est-ce que tu te protèges tous les
jours ? Réponse : Non » (E3), « est-ce que tu mets de la crème solaire ou la casquette avant
l’école ? Réponse : Non » (E5, E7, E8, E11), « est-ce qu’il y a des activités où tu mets la
casquette ? Réponse : Non » (E7).
56
Cette absence de protection était expliquée par des oublis : « j’y pense pas trop (crème) » (E2,
E5), « j’y pense pas (chapeau) » (E6), « des fois j’oublie (casquette) » (E11, E13, E14), un
manque de temps « parfois j’ai pas le temps » (E2), une banalisation des conséquences « ça te
fait peur d’avoir des coups de soleil ? Réponse : Non » (E5), « ça me dérange pas trop d’être
au soleil » (E10), un manque de motivation « j’ai pas tellement envi des fois (casquette à
l’école) » (E1, E8, E9) et les interdictions scolaires « on a pas le droit de mettre de la crème
solaire à l’école » (E1, E6), ), « j’ai pas le droit sous le toit à l’école » (E12) ou parentale
« maman elle veut pas qu’on prenne la casquette pour l’école » (E12).
Le manque d’infrastructures scolaire a été mentionné « il n’y a pas de préau ? Réponse : Non,
c’est les grands qui ont » (E3), « au sport y a pas d’ombre » (E4), « c’est pas toute la cour
qui est couverte… sous le préau c’est un peu petit et il y a beaucoup de personnes » (E10)
Certaines contraintes à l’application des méthodes de protection relevaient d’un manque de
confort dans les activités « ça empêche de jouer » (E1), « c’est dur de faire du sport sans
avoir chaud (pantalon) » (E2), « ça embête (lycra) » (E4), « j’aime pas quand je cours elle
descend sur mes yeux et je vois plus rien (casquette) » (E9) ou une gêne lors de l’application
de la crème solaire « ça reste, ça prend un peu de temps à sécher et j’aime pas trop ça » (E7),
« ça me gêne avec les linges » (E8)
4) Résultats secondaires
La participation du phototype
Cette étude a relevé que les enfants avaient certaines connaissances concernant les différents
phototypes « les peaux foncées attrapent moins de coups de soleil » (E4).
De plus il a été relevé que certaines méthodes de protection différaient selon que les
phototypes soient clairs « je mets des T-Shirt manches longues » (E4, E7), et « un pantalon »
(E4, E7), « je pars pas dans le soleil » (E7) ou foncés « est-ce que tu te protèges tous les
jours ? Réponse : Non » (E3), « quand je fais du vélo je mets pas de crème » (E8), « je mets
rien parce que j’adore le soleil » (E9).
D’autres méthodes étaient largement répandues quelques soient la couleur de peau comme
l’usage de la « casquette » (E1, E2, E4, E5, E6, E7, E8, E9, E10, E11, E12, E13, E14), de la
« crème solaire » (E1, E2, E3, E4, E5, E8, E9, E10, E11, E12, E13, E14) ou des « lunettes de
soleil » (E3, E4, E5, E9, E11, E12, E13), les comportements d’évitement « je m’en vais sauf
si il y a de l’ombre » (E4), « je reste pas longtemps au soleil » (E10), « on joue au maire sous
le préau » (E5, E7, E10), « je me mets sous le préau » (E12).
57
La participation du contexte d’exposition
La différence d’application des méthodes de protection était relevée lors de cette étude en
fonction des contexte scolaire et extra scolaire.
En effet certains enfants ont déclaré se protéger globalement moins à l’école, « je crois qu’on
a pas le droit à la crème à l’école » (E1), est ce que tu te protèges tous les jours pour aller à
l’école ? Réponse : Non » (E3), « quand je fais du sport à l’école je mets pas de crème » (E5,
E10), « est-ce que tu mets de la crème ou la casquette pour aller à l’école ? Réponse : Non »
(E5, E7, E8, E11, E12, E13), que pendant les activités extra-scolaires « je mets tout le temps
une casquette au sport… et de la crème à la plage » (E1), « je mets de la crème pour me
baigner à la piscine » (E1, E2, E4, E5, E13) « au skate je mets de la crème... Pour les balades
en vélo je mets la casquette » (E5), « à la plage je mets la casquette et la crème… et pendant
les entraînement de foot » (E10), « à la plage je mets des lunettes » (E12), « je mets de la
crème un peu partout… en extérieur… à la plage… à l’école je mets la casquette » (E14)
58
III) DISCUSSION SPÉCIFIQUE AUX ENFANTS
1) Analyses des résultats principaux et comparaison avec la
littérature
Cette étude a suggéré que les enfants possédaient globalement de bonnes attitudes face
au problème de santé publique que représente la surexposition solaire. La grande majorité des
enfants avaient connaissances des méthodes de prévention par l’emploi aussi bien des
produits, que des couvre-chefs et des vêtements de protection. Ils avaient en effet conscience
de vivre sur une île où l’exposition est souvent intense que ce soit en milieu scolaire ou
pendant les activités menées dans le cadre familial. La connaissance des effets délétères d’une
exposition trop intense était apportée par les deux piliers de leur éducation, les parents et le
personnel enseignant comme le montre cette étude britannique qui décrit les connaissances
des parents eux-mêmes sur la prévention solaire. (53) Cette éducation à l’exposition solaire
engendrait une certaine sensibilisation au sujet ainsi qu’une notion d’importance de la
protection. La présence d’infrastructures comme les préaux ou bien la végétation en milieu
scolaire se dégageait comme un moyen surajouté de se protéger à l’école.
Cependant, plusieurs freins à la protection solaire ont été mentionnés tels que le
manque de prévention parentale et scolaire. Les enfants qui ne sont pas assez sensibilisés
possèdent moins de connaissances sur les conséquences négatives de la surexposition au
soleil. Ils développent alors moins d’automatisme et d’habitude pour se protéger et banalisent
les effets délétères de la surexposition.
Un second frein a été la difficulté d’accès aux méthodes de prévention par l’interdiction ou la
non obligation d’application de la crème en milieu scolaire (et parfois même le port de la
casquette) y compris pour les activités physiques. Cette interdiction découlait parfois des
parents.
Le manque de confort des méthodes de protection dans le quotidien des enfants a été plusieurs
fois soulevé, parfois pour cause de chaleur extrême avec le port de vêtements de protection ou
de gêne aux activités physiques de loisir.
Enfin le manque d’infrastructures appropriées comme les préaux a été rapporté notamment
pendant les activités sportives scolaires. Il pourrait être intéressant de comparer ces
comportements de photo-protection des élèves dans d’autres zones tropicales (telle que la
59
Martinique) qui ont aussi été étudiées et qui suggéraient aussi qu’il était nécessaire de
déployer des moyens de prévention solaire adaptés aux activités scolaires récréatives ou
sportives. (54)
2) Forces et faiblesses de l’étude
La suffisance théorique des données a été obtenue au bout du 13ème entretien et aucune
nouvelle unité de sens n’est ressortie du dernier entretien. Il paraît intéressant de noter qu’une
partie des enfants interrogés ne faisaient pas partis des écoles partenaires de MiSolRé.
Certains ne bénéficiaient pas de programme éducatif spécifique à la prévention solaire, cela
paraissait être un critère de diversité.
L’échantillon des phototypes est assez diversifié à l’instar de celui retrouvé sur l’île de La
Réunion. Cela permettait d’avoir une idée plus globale des habitudes de protection des enfants
en milieu scolaire.
La triangulation des données s’est faite avec les deux autres chercheuses, l’une étudiant la
population des parents et l’autre celle des enseignants. Cela a permis d’enrichir, de vérifier la
validité de l’analyse interprétative des données et d’avoir une analyse plus élargie aboutissant
à une modélisation globale.
Un biais de sélection pouvait être le fait que le recrutement se basait sur le volontariat des
enfants. Cela pouvait suggérer que ceux qui participaient étaient possiblement plus enclins à
se protéger et avaient davantage de choses à dire sur le sujet.
Le contexte de crise Covid a mené le recrutement à se restreindre au recrutement par effet
boule de neige ainsi qu’à l’entourage des chercheuses, ce qui pouvait représenter un biais
supplémentaire de recrutement.
3) Perspectives de soins et recherche
Les constatations faites suite à ces trois études menées de façon conjointe (enfants,
enseignants et parents d’élèves) suggéraient qu’une communication plus importante entre
parents, enseignants et écolespermettrait une meilleure répartition de la responsabilité de la
photo-protection des enfants.Une expérience d’intégration des technologies de l’information
et de la communication permettrait de favoriser une meilleure collaboration école-famille.
Une communication davantage bidirectionnelle ferait des parents et des enseignants des
60
partenaires équitables dans la réussite éducative de l’enfant en répartissant au mieux la
responsabilité de leur photo-protection. (55, 56, 57) Il paraîtrait intéressant d’appliquer cela à
la prévention solaire et d’en étudier les bénéfices.
Les enseignants ont cité comme outils de prévention le dépistage réalisé la plupart du temps
chez le dermatologue. La prévention passant aussi par le dépistage, il paraîtrait intéressant de
mettre en place des surveillances cliniques chez le médecin généraliste plus régulières chez
les enfants présentant de nombreux nævi au cours de leur croissance, le nombre de nævi étant
un facteur de risque de développer un mélanome à l’âge adulte. Le comptage par le médecin
traitant de nævus chez les enfants pourrait donc aussi être un moyen d’évaluer l’impact des
campagnes de prévention solaire dans les écoles car la durée entre l’exposition solaire
etl’apparition de nævi est beaucoup plus courte que celle entre l’exposition solaire et
l’apparition de mélanome. (58)
Les enseignants ont, à de multiples reprises, émis l’idée que les produits solaires étaient
néfastes pour les coraux et la biodiversité marine. Cependant, peu d’étude sur le sujet ont été
trouvées. Il paraîtrait donc intéressant d’étudier l’impact écologique réel de ces produits
solaires.
Il paraissait aussi intéressant de souligner que les médecins généralistes n’étaient pas cités
dans les autorités médicales impliquées dans la prévention solaire et le dépistage des cancers
cutanés chez les enseignants. La question se pose alors du rôle du médecin généraliste dans la
prévention solaire chez ses patients, souvent trop peu évoquée pour des raisons pratiques (59).
Des études sur les connaissances des externes en médecine sur la prévention solaire
suggéraient un manque de formation de ces derniers sur le sujet et en découlait une mauvaise
prévention auprès des patients. (60)
Cette étude a permis de démontrer que les carences en matière de prévention solaire étaient
présentes dès la maternelle. La question se pose alors d’une prévention plus présente qui
débuterait dès la crèche. Cette étude a montré une amélioration des comportements de photoprotection chez les employées d’une crèche et les parents des enfants suite à une action de
sensibilisation grâce à la formation des parents et du personnel des crèches qui a eu un impact
sur les connaissances et la photo-protection déclarée. (61) Il paraîtrait intéressant d’appliquer
cette prévention à La Réunion et d’en étudier les répercussions sur les élèves de maternelle et
de primaire.
61
IV) CONCLUSION
L’incidence du mélanome cutané est en augmentation sur l’île de La Réunion
représentant plus de 25 nouveaux cas pour 100 000 habitants à peau claire en 2015
et s’approchant ainsi les taux australiens. Le facteur de risque principal du mélanome est
l’exposition pendant l’enfance, une prévention efficace dans les écoles paraît essentielle mais
vraisemblablement encore insuffisante.
Cette étude a permis d’explorer les représentations, les freins et motivations face à la
protection solaire chez les principaux acteurs de protection des enfants : leurs parents, les
enfants eux-mêmes et plus particulièrement les enseignants.
Les 40 participants ont exprimé leurs habitudes de protection qui variaient selon l’exposition.
La protection était moindre lors des activités quotidiennes y compris en période scolaire ce
qu’il faudrait déconstruire. Les meilleurs moyens de protection étaient les automatismes
ancrés chez les enseignants, acquis pendant l’enfance et notamment grâce à l’éducation
parentale. Il paraîtrait donc intéressant d’impliquer plus activement les parents dans la photoprotection des enfants à l’école, responsabilité bien souvent remise sur l’école, en améliorant
les modes de communication entre écoles et parents et en élargissant la prévention aux
familles, et plus seulement à l’enfant lui-même.
Les contraintes pratiques et financières ont été relevées par les parents et enseignants et un
manque de moyens financiers injectés dans les écoles notamment pour mettre en place des
infrastructures adaptées à la protection solaire des enfants a été mis en évidence.
Les enseignants ont aussi protesté devant l’absence de formation adaptée sur la prévention
solaire par le rectorat.
La protection solaire des enfants en milieu scolaire est sous la responsabilité à la fois scolaire,
parentale et sociale. Une amélioration de la communication entre les acteurs scolaires et les
parents serait intéressante. Des campagnes de prévention et un aménagement des lieux de vie
scolaires sont nécessaires à une meilleure protection de la population infantile.
62
RÉFÉRENCES BIBLIOGRAPHIQUES
1- Pereira LA, Luz FB, Carneiro CMM de O, and al. Evaluation of vitamin D plasma levels
after mild exposure to the sun with photoprotection. An Bras Dermatol. 2019;94:56-61.
2- Zerguine R. Peau et soleil. Batna J Med Sci. 2015;2:24-29.
3- Garźon-Chavez DR, Quentin E, Harrison SL, ant al. The geospatial relationship of
pterygium
and
senile
cataract
with
ambient
solar
ultraviolet
in
tropical
Ecuador. Photochem Photobiol Sci. 2018;17(8):1075-1083.
4- Vincek V, Kurimoto I, Medema JP, et al. Tumor necrosis factor alpha polymorphism
correlates with deleterious effects of ultraviolet B light on cutaneous immunity. Cancer Res.
1993;53(4):728.
5- Maha F, El-Tohamy L, Abdulkareem A. Overview of melanin pigments and their
analytical detection. World journal of pharmaceutical ans medical research. 2018;4(1):212219.
6- Brenner M, Hearing VJ. The Protective Role of Melanin Against UV Damage in Human
Skin. Photochem Photobiol. 2008;84(3):539-49.
7- Leiter
U, Eigentler T, Garbe C.
Epidemiology
of
skin
cancer. Adv
Exp
Med
Biol. 2014;810:120-40.
8- Global Cancer Observatory. Cancer today. http://gco.iarc.fr/today/home. Cité le 28 février,
2019.
9- Douki T, Leccia MT, Béani JC and al. Effets néfastes du rayonnement UVA solaire : de
nouveaux indices dans l’ADN. Med Sci (Paris). 2007;23(2):124-126.
10- Elichegaray C, Bouallala S, Maitre A, Ba M. État et évolution de la pollution
atmosphérique. Revue Française d'Allergologie. 2010;50(4):381-393.
11- Météo
France.
Les
variations
de
la
couche
d’ozone. http://education.meteofrance.fr/dossiers-thematiques/l-evolution-du-climat/leseffets-de-lacouche-d-ozone/levolution-depuis-1955#.
12- Bédane C, Roelandts R. Rayonnement ultraviolet : effets biologiques. Annales de
Dermatologie et de Vénéréologie. Elsevier Masson. 2007:134(5).
13- Rehfuess E.
World Health Organization. Global
solar
UV
index:
a
practical
guide. Geneva, Switzerland: World Health Organization. 2002.
14- Site
internet
de Meteo france http://www.meteofrance.com/previsions-meteo-
france/metropole
63
15- Modenese A, Korpinen L, Gobba F. Solar Radiation Exposure and Outdoor Work: An
Underestimated Occupational Risk. Int J Environ Res Public Health. 2018;15.
16- Site
internet
de
l'INSEE https://www.insee.fr/fr/statistiques/2011101?geo=DEP-
974 http://www.reunion.chambagri.fr/spip.php?rubrique15
17- Lacour JP, Béani JC,. Photoprotection naturelle, photoprotection externe (topique et
vestimentaire). Annales de Dermatologie et de Vénéréologie. 2007;134(5):18-24.
18- Ward WH, Farma JM, editors. Cutaneous Melanoma: Etiology and Therapy. Brisbane
(AU) : Codon Publications. 2017.
19- Collège des enseignants en dermatologie de France. ELSEVIER / MASSON. Les
référentiels des Collèges. 2017.
20- Mackiewicz J, Mackiewicz A. BRAF and MEK inhibitors in the era of immunotherapy in
melanoma patients. Contemp Oncol. 2018;22:68-72.
21- Nikolaou V, Stratigos AJ. Emerging trends in the epidemiology of melanoma. Br
J Dermatol. 2014;170:11-9.
22- Correnti CM, Klein DJ, Elliott MN, et al. Racial disparities in fifth-grade sun protection:
Evidence from the Healthy Passages study. Pediatr Dermatol. 2018;35(5):588.
23- Larkin J, Chiarion-Sileni V, Gonzalez R, et al. Combined Nivolumab and Ipilimumab or
Monotherapy in Untreated Melanoma. N Engl J Med. 2015;373:23-34.
24- Bray F, Ferlay J, Soerjomataram I, et al. Global cancer statistics 2018: GLOBOCAN
estimates of incidence and mortality worldwide for 36 cancers in 185 countries. Cancer J
Clin. 2018;68:394–424.
25- Longvert C, Saiag P. Actualités dans le mélanome cutané. La Revue de Médecine
Interne. 2019;40(3):178-183
26- Global Cancer Observatory. Cancer today. http://gco.iarc.fr/today/home. Cité le 28
Février, 2019.
27- Markovic SN, Erickson LA, Rao RD, et al. Malignant Melanoma in the 21st Century, Part
1: Epidemiology, Risk Factors, Screening, Prevention, and Diagnosis. Mayo Clin Proc.
2007;82(3):364.
28- Karimkhani C, Green AC, Nijsten T, et al. The global burden of melanoma: results from
the Global Burden of Disease Study 2015. Br J Dermatol. 2017;177(1):134.
29- SunSmart. Media and campaigns. http://www.sunsmart.com.au/about/media-campaigns;
30- Smith BJ, Ferguson C, McKenzie J, et al. Impacts from repeated mass media campaigns
to promote sun protection in Australia. Health Promot Int. 2002;17:51-60.
64
31- Warocquier J, Miquel J, Chirpaz E, et al. Données épidémiologiques des mélanomes
cutanés à La Réunion en 2015. Ann Dermatol Venereol. 2016;143:S313-4.
32- Institut national de la statistique et des études économiques. Indicateurs : cartes, données
et graphiques. https://statistiqueslocales.insee.fr/
33- Green AC, Wallingford SC, McBride P. Childhood exposure to ultraviolet radiation
and harmful skin effects: Epidemiological evidence. Prog Biophys Mol
Biol. 2011;107:349-
55.
34- Leiter U, Garbe C. Epidemiology of melanoma and nonmelanoma skin cancer: the role of
sunlight. Adv Exp Med Biol. 2008;624:89-103.
35- Watts CG, Drummond M, Goumas C, et al. Sunscreen Use and Melanoma Risk Among
Young Australian Adults. JAMA Dermatol. 2018;154:1001.
36- Andreola GM, Carvalho VO, Huczok J, et al. Photoprotection in adolescents: what they
know and how they behave. An Bras Dermatol. 2018;93(1):39-44.
37- Hamilton K, Kirkpatrick A, Rebar A, et al. Protecting young children against skin cancer:
Parental beliefs, roles, and regret. Psychooncology. 2017;26:2135-41.
38- Duarte
AF, Picoto A,
Pereira
A,
Da
C,
et
al. Sun
protection
in
children:
a behavioural study. Eur J Dermatol. 2018;28(3):338.
39- Cancer
council
Victoria.
SunSmart
Program.
SunSmart.
2002.
Disponible
sur: https://www.sunsmart.com.au/
40- Australian Institute of Health and Welfare. Skin cancer in Australia. Canberra: Australian
Government; 2016 juill p. 81. https://www.aihw.gov.au/getmedia/0368fb8b-10ef-4631-aa14cb6d55043e4b/18197.pdf.aspx?inline=true
41- SunSmart
Schools.
Cancer
Council
Western
Australia. https://www.cancerwa.asn.au/prevention/sunsmart/sunsmartschools.
42- Breitbart EW, Waldmann A, Nolte S et al. Systematic skin cancer screening in Northern
Germany. J Am Acad Dermatol 2012;66:201-11.
43- Volkov A, Dobbinson S, Wakefield M, et al. Seven-year trends in sun protection and
sunburn among Australian adolescents and adults. Aust N Z J Public Health. 2013;37(1):6369.
44- Meunier L, Estève E. Comportement des enfants vis-à-vis du soleil. Éducation à
l’exposition solaire. Annales de Dermatologie et de Vénéréologie. 2007;134(5):25-27.
45- Reinau D, Meier C, Gerber N, et al. Sun protection behavior of primary and secondary
school students in North-Western Switzerland. Swiss Med Wkly. 2012;142:w13520.
65
46- Tan MG, Nag S, Weinstein M. Parental use of sun protection for their children-does skin
color matter? Pediatr Dermatol. 2018;35(2):220-224.
47- Skiljevic D, Sreckovic L. Ultraviolet radiation exposure among Belgrade high school
students:
analysis
of
knowledge,
attitudes
and behaviour. J
Eur Acad Dermatol Venereol. 2019;33:63-75.
48- Shih ST-F, Carter R, Sinclair C, et al. Economic evaluation of skin cancer prevention
in Australia. Prev Med. 2009;49(5):449-453.
49-Vivre
avec
le
Soleil.
| 28,605
|
01/tel.archives-ouvertes.fr-tel-02890433-document.txt_7
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 9,920
| 14,825
|
(a) (b) (c) Figure 4.2 : Représentation des solutions optimales du modèle orienté opérationnel pour l'application n°1 sur les paires de fonctions-objectifs (a) Coût et Taux de stockage, (b) Coût et Émission de GES et (c) Émission de GES et Taux de stockage
Toutes les solutions présentent un taux de stockage inférieur à 30 % (i.e. un taux de valorisation matière supérieur à 70 %). L'objectif réglementaire est alors atteint, bien qu'aucune contrainte en matière de performance environnementale n'ait été renseignée (variable contextuelle ValoMin). Deux groupes de solutions se distinguent sur la Figure 4.2.a. Un premier groupe propose un taux de stockage entre 6 et 8 %, pour un coût plus faible. Le deuxième groupe a un coût moyen plus fort pour un taux de stockage plus important (entre 25 et 26 %). Sur ces deux objectifs, le premier groupe est nettement plus intéressant. La variabilité est plus grande sur la fonction-objectif de coût que sur celle du taux de stockage. Sur la fonction-objectif de coût, le premier groupe possède un coefficient de variation de 2,47 % tandis que celui du deuxième groupe est de 3,43 %. Dans la Figure 4.2.b, les émissions sont inversement proportionnelles au coût : plus le coût est réduit, plus les émissions de GES sont importantes. Trois groupes de solutions apparaissent. Le premier groupe présente les coûts les moins chers, mais les émissions de GES les plus importantes. Il correspond au premier groupe identifié dans la Figure 4.2.a, avec un taux de stockage entre 6 et 8 %. Le deuxième groupe de la Figure 4.2.a se partage sur la Figure 4.2.b en deux sous-groupes. Le premier présente des coûts et des émissions de GES au niveau intermédiaire, avec une ible variabilité (coefficient de variation de 0,04 % pour le coût et de 0,92 % pour les émissions de GES). Le deuxième porte les solutions au plus fort coût, mais aux émissions GES les plus réduites. La variabilité y est plus forte (coefficient de variation de 3,33 % pour le coût et de 1,20 % pour les émissions de GES). Ainsi, pour atteindre une performance environnementale plus efficace (réduction des GES), il est nécessaire d'augmenter le coût du chantier. La Figure 4.2.c montre de nouveau la distinction de deux groupes en fonction du taux de stockage. Un taux de stockage de 6 à 8 % conduit à des émissions entre 14 973 kg CO2 e et 15 593 kg CO2 e, tandis qu'avec un taux de stockage avoisinant les 25-26 %, les émissions se réduisent jusqu'à 12 610-14 504 kg CO2 e d'émission (réduction de 13 % en moyenne). Il peut paraître contre-intuitif que l'augmentation de la valorisation (i.e. réduction du taux de stockage) induise une augmentation des émissions de GES. Pour mieux comprendre ce fait, il faut étudier le détail des solutions avec leurs valeurs sur les variables de décision. Nous y viendrons par la suite. Le Tableau 4.5 présente les résultats de deux groupes identifiés selon le taux de stockage, sur les trois fonctions-objectifs majeures : le coût, le taux de stockage et les émissions de GES. La fonction-objectif du délai est omise pour ce cas-ci, car sa variabilité est très faible.
Tableau 4.5 : Résultats des deux groupes de solutions optimales apportées par le modèle orienté opérationnel pour l'application n°1 Coût (€) Taux de stockage (% massique) Émission GES (kg CO2 e) Groupe 1 Groupe 2 Groupe 1 Groupe 2 Groupe 1 Groupe 2 Moyenne 46 539 53 394 7 25 15 189 13 191 Minimum 45 884 51 783 6 25 14 973 12 610 Maximum 49 253 56 956 8 26 15 593 14 504
Pour comprendre la provenance des différences entre les deux groupes, il faut étudier ces solutions vis-à-vis de l'espace de décision. Le Tableau 4.6 recense les résultats sur des variables de décision induisant les plus grandes différences entre les deux groupes : le nombre d'ouvriers pour la phase de curage et le choix de traitement des déchets. Le nombre d'ouvriers a une influence forte sur le coût et la durée du chantier Nous nous concentrons sur l'influence sur le coût, car la variabilité de la durée est très faible dans ce cas-ci (écart-type de 0,6 jours). Le traitement des déchets est la phase la plus émettrice en GES sur ce chantier. Elle serait
CHAPITRE 4. APPLICATIONS DU MODÈLE DE DÉCONSTRUCTION
responsable
de
65 %
des émissions provoquées par les solutions du groupe
1
et de
54 %
par les solutions du groupe 2. Tableau 4.6 : Résultats des variables majeures de décision pour les deux groupes de solutions, selon le modèle orienté opérationnel pour l'application
n°1 Variable de décision Nombre d'ouvriers pour la phase de curage Traitement du béton Traitement du bois Traitement de la brique Traitement de la brique plâtrière Traitement des DI divers Traitement des DND divers Groupe 1 86 % 4 ouvriers et 14 % 3 ouvriers 100 % Recyclage 100 % Recyclage 70 % Recyclage dans le béton et 30 % Tri Groupe 2 92 % 4 ouvriers et 8 % 3 ouvriers 100 % Recyclage 100 % Recyclage 69 % Recyclage dans le béton et 31 % Tri 100 % Réaménagement 100 % Tri 70 % Recyclage dans le béton et 30 % Tri 86 % Tri et 14 % ISDND 60 % Recyclage dans le béton et 40 % Tri 100 % Tri
La brique et les DI divers peuvent être recyclés avec le béton car leur proportion dans le mélange global est très faible (4 % si ces deux natures de déchets sont rassemblées avec le béton). Pour le reste des variables de décision, les solutions sont presque identiques. Le tombereau (15 m3) a été sélectionné pour transporter les DI et des bennes de 30 m3 sont préférées pour les DND et le bois. Pour les centres de traitement, le coût et la distance étaient minimisés au plus possible. Le modèle a privilégié les centres aux courtes distances de transport même si le coût de traitement était légèrement plus élevé que les autres centres plus lointains (e.g. supplément de 5-10 €/T). La différence majeure entre les deux groupes apparaît notamment sur le choix du traitement de la brique plâtrière. Le groupe 1 propose de l'utiliser pour réaménager des sites. Le déchet étant valorisé, cela augmente le taux de valorisation du chantier. Or, le centre de traitement permettant cette valorisation se trouve du chantier (distance supérieure à 100 km). Le transport conduit à une augmentation des émissions de GES. En revanche, le coût pour que la brique plâtrière soit exploité en réaménagement de site (il s'agit toujours d'un coût pour l'entreprise de déconstruction) est très faible par rapport au coût d'un centre de tri ou d'une ISDND (le réaménagement est près de 60 % moins cher). Cela compense le coût de transport ; le coût total du chantier est ainsi réduit. 2.2.2 Discussion
L'étude initiale faite par le chargé d'études se situe dans les solutions du groupe 1. Les centres de traitement les moins chers, et par conséquent les centres de valorisation, ont été privilégiés pour réduire les prix, même si les distances étaient plus longues.
CHAPITRE 4. APPLICATIONS DU MODÈLE DE DÉCONSTRUCTION
Les solutions obtenues par le modèle ont été présentées au chargé d'affaires responsable du futur chantier. Ce dernier privilégiait le même objectif que le chargé d'études : faire un chantier au moindre coût. Traiter les déchets inertes et le bois en recyclage était inévitable. Comme le taux de valorisation est suffisant pour les groupes 1 et 2, les émissions de GES ont été retenues comme deuxième critère. Le moyen le plus facile de les réduire est d'assurer une valorisation tout en limitant le transport. Les plateformes les plus proches et une gestion locale de la brique plâtrière ont ainsi été préférées. Parmi les 13 solutions optimales du groupe 2 (i.e. gestion locale de la brique plâtrière), une solution correspondait à la vision du conducteur de travaux. Avec le maximum d'ouvriers sur chantier pour le curage (i.e. 4 ouvriers), la solution désignée réduisait la durée de cette phase. Le reste du chantier était programmé avec une pelle hydraulique. La solution a sélectionné les mêmes types de contenants que ceux de l'étude proposée par le chargé d'études pour les DND et le bois. Pour transporter les DI, la solution a privilégié le contenant le plus grand, bien que le plus cher. Le chargé d'études avait préféré un contenant de la gamme inférieure. La solution désignée privilégiait les sites de traitement les plus proches, contrairement à l'étude. Les déchets valorisés directement (i.e. dès le premier de traitement) comprennent le béton, le bois, la brique et les DI divers. Ce plan de gestion des déchets affectait légèrement le coût, mais réduisait les émissions GES (Quéheille 2019). Le chantier a été réalisé en utilisant cette solution. Malgré les aléas (e.g. 4 ouvriers n'étaient pas présents chaque jour sur le chantier), les résultats de la solution se sont montrés proches de la réalité du chantier, avec des écarts acceptables (augmentation du coût de 5 % et des délais de 7 % entre le chantier et la solution). La différence de coût est majoritairement portée par une estimation de déchets en-deçà de la réalité. 2.3 Modèle orienté recherche 2.3.1 Résultats
Le modèle orienté recherche propose trois solutions optimales pour cette application. Les résultats de ces solutions sur les fonctions-objectifs montre une première solution originale et deux autres solutions similaires (Tableau 4.7). 146 CHAPITRE 4. APPLICATIONS DU MODÈLE DE DÉCONSTRUCTION
Tableau 4.7 : Résultats des solutions optimales apportées par le modèle orienté recherche pour l'application n°1 Fonction-objectif Coût (€) Délais (Jours) Taux de stockage (% massique) Impact sur la santé humaine (Daly) Impact sur la disponibilité de la ressource (USD) Impact sur la qualité de l'écosystème (Species) Solution n°1 51361 14 5 1,406E+00 Solution n°2 59830 14 24 1,387E+00 Solution n°3 56998 14 24 1,396E+00 4,964E+04 4,752E+04 4,828E+04 2,508E-03 2,458E-03 2,479E-03
Ces résultats
sont influencés
par les choix effectués sur les variables de décision (Tableau 4.8).
Tableau 4.8 : Résultats des variables majeures de décision des solutions optimales apportées par le modèle orienté recherche pour l'application n°1 Variable de décision Nombre d'ouvriers pour la phase de curage Traitement du béton Traitement du bois Traitement de la brique Traitement de la brique plâtrière Traitement des DI divers Traitement des DND divers Solution n°1 Solution n°2 Solution n°3 4 4 4 Recyclage Recyclage Recyclage Recyclage Recyclage dans le béton Recyclage Recyclage dans le béton Recyclage Remblaiement Tri Tri Recyclage dans le béton Tri Remblaiement Incinération Tri Incinération Centre de recyclage du béton Centre le moins cher et le plus proche Centre de recyclage du bois Centre à 46 km, mais compromis sur le coût Centre de tri des DI - Centre de tri des DND - Centre le moins cher et le plus proche Centre cher, mais à 10 km Centre le moins cher, mais le plus éloigné Centre le plus cher et le plus proche Remblaiement Centre le moins cher et le plus proche Centre cher, mais à 32 km - Parmi les 4 centres disponibles pour le recyclage du bois, un centre se démarquait par son coût le plus faible et
grande proximité avec le chantier (distance de 5 km). Pourtant, aucune solution n'a sélectionné ce centre de recyclage du bois, préférant choisir des compromis.
147 CHAPITRE 4. APPLICATIONS DU MODÈLE DE DÉCONSTRUCTION
Le Tableau 4.8 ne donne pas les variables de décision pour les centres de remblaiement (avec DI ou avec DND), ni pour le centre d'incinération des DND car le modèle ne disposait que d'un choix pour ces variables. Aucun centre n'était comparé dans ces variables de décision. Néanmoins, il est important de souligner que le centre d'incinération correspond au traitement le plus cher pour les DND et qu'il se situait à 127 km du chantier. 2.3.2 Discussion
Contrairement au modèle orienté opérationnel, le modèle orienté recherche ne propose que 3 solutions optimales. Plusieurs hypothèses peuvent être avancées pour expliquer ce point. La première provient du temps de calcul beaucoup plus long pour effectuer l'optimisation avec ce modèle. Afin de rester dans des temps raisonnables, il a fallu réduire de façon très conséquente le nombre d'itérations et d'opérations par rapport à l'optimisation avec le modèle opérationnel. La recherche de solutions optimales est ainsi moins complète, pouvant limiter le nombre de solutions optimales trouvées. Le faible nombre de solutions pourrait aussi être lié à l'évaluation environnementale appliquée. En effet, nous avons vu dans le Chapitre 2 que l'ACV et le bilan d'émission de GES ne montraient pas les mêmes sensibilités : la première approche est très influencée par le traitement et le transport des déchets, tandis que la deuxième méthode est plus conditionnée par le traitement des déchets et la déconstruction. La première solution entre dans les critères du groupe 1 identifié dans le modèle opérationnel avec l'envoi de la brique plâtrière pour remblayer des terrains. Les deux solutions restantes privilégient une gestion locale de ce déchet comme le faisait le groupe 2 identifié dans les résultats du modèle opérationnel. Ce choix conditionne les résultats des solutions sur les fonctions-objectifs (Tableau 4.7). Avec une gestion locale de la brique plâtrière, les impacts environnementaux réduisent légèrement (moins de 5 %), mais le coût augmente de 14 %. Le reste des variables de décision est très semblable à celles des solutions trouvées par le modèle orienté opérationnel. Parmi les traitements des déchets, seul le choix du traitement des DND divers a été géré différemment : les solutions n°1 et 3 proposent l'incinération. traitement n'a jamais été considéré par le modèle orienté opérationnel car son coût est le plus important, la distance entre le centre et le chantier est grande et les avantages environnementaux (e.g. valorisation des mâchefers issus de l'incinération) sont minimes par rapport aux émissions GES provoquées. De plus, le choix du centre de recyclage du bois n'est pas le plus adapté, car le centre le moins cher et le plus proche n'a été sélectionné par aucune solution. Cela peut expliquer le coût plus élevé entre ces solutions et celles du modèle orienté opérationnel (9-10 % de plus en moyenne). 3 Application n°2 : Déconstruction d'un bâtiment de type hangar 3.1 Contexte
Ce cas d'application porte sur la déconstruction d'une ancienne salle des fêtes située dans une ville moyenne. Le bâtiment, de grande hauteur et initialement conçu sur un seul niveau au rez-de-chaussée, a été agrémenté de quelques extensions et réaménagements intérieurs. Ainsi, à la structure métallique initiale, ont été rajoutés des structures en béton (murs et plancher) et des éléments de second-oeuvre de type cloisons, faux plafond, isolation, menuiseries Le second-oeuvre étant assez pauvre, le curage sera court et la question d'une démolition traditionnelle peut se poser pour ce bâtiment. L'espace disponible sur le terrain permettrait à plusieurs pelles hydrauliques de travailler. Les rendements de travail, renseignés en tant que variables de connaissance, sont donnés dans le Tableau 4.9.
Tableau 4.9 : Valeurs des rendements de travail pour l'application n°2 Rendements de travail Installation du chantier Abattage de la superstructure si Démol = Non Abattage de la superstructure si Démol = Oui Chargement des déchets issus de la superstructure Démolition de l'infrastructure Chargement des déchets issus de l'infrastructure Remblaiement du terrain Nivellement du terrain Valeur 1000 m2/jour 335 m2/jour 300 m2/jour 640 T/jour 400 m2/jour 550 T/jour 700 T/jour 3000 m2/jour L'ensemble des variables contextuelles est donné dans le Tableau 4.10. Le quantitatif des déchets a été estimé par le chargé d'études en utilisant l'outil d'aide que nous avons 149
CHAPITRE 4. APPLICATIONS DU MODÈLE DE DÉCONSTRUCTION développé (Chapitre 3 §1.2).
Nous avons appliqué une contrainte supplémentaire correspondant
à un coût maximal
à 60000 €
. Cette
valeur représente le coût estimé par l
'
e du chargé d'études. Nous demandons alors au modèle de ne pas proposer de solution dépassant ce coût-ci. 150 CHAPITRE 4. APPLICATIONS DU MODÈLE DE DÉCONSTRUCTION
Tableau 4.11 : Caractéristiques de l'étude réalisée par le chargé d'études pour l'application n°2 Caractéristique de l'étude initiale Durée Durée de la phase d'installation (DIns) 1J Durée de la phase de curage (DCur) 4J Nombre de jours alloués pour la phase de curage par un seul ouvrier Durée de la phase de désolidarisation (DDes) Durée de la phase de démolition (DDem) Durée de l'étape « Abattage de la superstructure » de la phase de démolition (DDem-1) Durée de l'étape « Chargement des déchets issus de la superstructure » de la phase de démolition (DDem-2) Durée de l'étape « Démolition de l'infrastructure » de la phase de démolition (DDem-3) Durée de l'étape « Chargement des déchets issus de l'infrastructure » de la phase de démolition (DDem-4) Durée de l'étape « Ouvrages divers » de la phase de démolition (DDem-5) Durée de l'étape « Remblaiement » de la phase de démolition (DDem-6) Durée de l'étape « Nivellement » de la phase de démolition (DDem-7) Ressources matérielles 2 constats d'huissier, 1 panneau de chantier, 1 basevie 1 mini-pelle de 3 T pour 4 J et 1 manuscopique 9 m pour 4 J 18 J - 0J 12 J - 5J 1J 3J 2J 1 pelle hydraulique de 37 T pour 12 J 0J 0J 1J
Pour ce cas d'études, nous avons considéré 24 centres de tri (Tableau 4.12). Comme dans le premier cas d'application, chaque type de centre de traitement correspond à une variable de décision donnée (e.g. la variable de décision « Centre de recyclage du béton » comporte 4 choix possibles de centres).
Tableau 4.12 : Nombre de centres de traitement considérés pour les variables de décision correspondantes sur l'application n°2 Centre de traitement Recyclage du béton Recyclage du bois Recyclage du métal (fer à cisailler) Recyclage du métal (platin) Réaménagement avec des DND Tri des DI Tri des DND Incinération des DND ISDI ISDND Nombre de centres considérés 4 3 2 2 2 3 3 1 2 2
CHAPITRE 4. APPLICATIONS DU MODÈLE DE DÉCONSTRUCTION 3.2 Modèle orienté opérationnel 3.2.1 Résultats
Le modèle a permis de trouver 18 solutions optimales. La Figure 4.3 présente l'ensemble des solutions optimales trouvées sur les quatre fonctions-objectifs. Toutes les solutions respectent la contrainte économique (60000 €). Figure 4.3 : Solutions optimales du modèle orienté opérationnel pour l'application n°2
Toutes les solutions proposent des travaux sans curage, ce qui correspond à de la démolition traditionnelle, avec la variable de décision Démol = « Oui ». En effet, le secondoeuvre de ce hangar est très réduit malgré les réaménagements intérieurs. Par conséquent, le modèle a privilégié automatiquement la démolition traditionnelle au détriment de la déconstruction. En raison de ce choix, les déchets du second-oeuvre ne seront pas triés et le quantitatif des déchets à gérer évolue (Tableau 4.13). Par exemple, le bois n'est présent que dans le second-oeuvre du bâtiment. Avec la démolition traditionnelle, le bois n'est pas trié et est mélangé avec les autres DND. La masse de bois est alors transférée dans la nature de déchet « DND divers ». CHAPITRE 4. APPLICATIONS DU MODÈLE DE DÉCONSTRUCTION
Tableau 4.13 : Quantitatif estimé des déchets pour l'application n°2 si démolition traditionnelle Nature de déchet Béton Bois Brique plâtrière DND divers Métal (fer à cisailler) Métal (platin) Total Tonnage (T) 1646,7 0 0 32,8 30,9 7,2 1717,6
Une solution se distingue des autres solutions sur l'objectif des délais. Nous pouvons déterminer alors deux groupes, dont le premier ne sera cependant constitué que d'une solution. Le nombre de pelles hydrauliques à exploiter sur le chantier a un impact important sur le délai du chantier. La variable de décision DeuxPelles y est directement liée. Si une seule pelle hydraulique travaille, le chantier est effectué en 14 jours. Si deux pelles sont utilisées pendant la démolition, alors la durée descend à 10 jours. Sur les autres objectifs, l'utilisation de deux pelles coïncide avec les coûts et les émissions de GES les plus forts du groupe 2. Ainsi, utiliser deux pelles pour la démolition (afin de réduire les délais) conduit à augmenter le coût de 5 % et les émissions de GES de 21 % par rapport à la moyenne du groupe 2. Le recours à deux pelles a par contre une incidence moindre sur le taux de stockage. Le faible taux de stockage est obtenu grâce au recyclage du béton, qui représente 96 % de la masse des déchets sur le chantier. La démolition traditionnelle induit que les matériaux du second-oeuvre, valorisables seulement si séparés sur site (e.g. bois, brique plâtrière), ne peuvent être envoyés qu'en centre de tri ou ISD. La moitié des solutions a choisi le centre de tri et l'autre moitié des solutions a opté pour un stockage direct en ISD. Les métaux présents sur la structure du bâtiment sont à recycler dans 100 % des solutions pour le fer à cisailler. Le platin, qui se revend moins bien, est prévu au recyclage dans 56 % des solutions, le reste des solutions préconisant plutôt de l'envoyer dans un centre de tri avec le reste des DND. En ne recyclant pas le platin, le coût des solutions augmente légèrement (environ 2 %), mais ce choix permet une légère réduction des émissions de GES (environ 8 %). Économiser un transport exclusif au platin représenterait plus d'émissions évitées que son recyclage : le recyclage et la production évitée représentent une émission équivalente et la masse de platin est faible dans ce cas d'études. 3.2.2 Discussion
La solution qui avait été proposée par le chargé d'études (i.e. déconstruction), ne fait pas partie des solutions trouvées par l'algorithme d'optimisation, qui préconisent toutes une démolition traditionnelle. L'optimisation n'étudie la possibilité du curage seulement lorsque la réalisation d'une démolition traditionnelle est écartée (variable contextuelle VDémol = Non) ou la contrainte économique annulée. Cela ne veut pas dire que la déconstruction est
TRE 4. APPLICATIONS DU MODÈLE DE DÉCONSTRUCTION
forcément exclue du front de Pareto ; elle pourrait en effet se révéler tout de même intéressante d'un point de vue environnemental. Cependant, vu la faible quantité de déchets de second oeuvre, le gain sur l'aspect environnemental reste faible et les solutions optimales proposant du curage sont plus difficiles à atteindre lors de la recherche de solutions optimales dans ce cas d'application. En effet, la démolition traditionnelle, en plus d'apporter aisément des minima sur le coût (ce qui convient rapidement à la contrainte économique), présente un gros avantage sur les délais par rapport à une déconstruction (22 % de moins). Le taux de stockage et les émissions de GES n'aident pas à avantager significativement la déconstruction face à la démolition traditionnelle. Pour ce cas d'application, un approfondissement de la recherche (i.e. augmenter le nombre d'évaluations) aurait probablement aidé l'algorithme à repérer des solutions envisageables en déconstruction. On peut toutefois forcer l'algorithme à trouver des solutions avec curage (en réduisant la variable contextuelle VDémol à « Non », ce qui interdit la possibilité d'une démolition traditionnelle), démontrant l'intérêt de disposer d'une telle variable. Les solutions alors trouvées sont proches de la proposition du chargé d'études, mais un coût légèrement inférieur (jusqu'à 5 % de moins). L'écart est dû au choix de certains centres de traitement à la distance équivalente, mais au coût de traitement moins cher. Le chargé d'affaires responsable du futur chantier a partagé la logique de l'optimisation sur le choix de la méthode, en privilégiant la démolition traditionnelle. Le gain en taux de valorisation matière qu'apporterait le curage ne permet pas de compenser le surplus économique et journalier qui en découlerait. L'objectif principal du chargé d'affaires était de réduire au maximum le coût du chantier. Il a alors privilégié une démolition traditionnelle par une pelle hydraulique, avec récupération du béton et des métaux pour valorisation matière. Il s'agit d'une solution du groupe 2 parmi les solutions optimales trouvées par le modèle. CHAPITRE 4. APPLICATIONS DU MODÈLE DE DÉCONSTRUCTION 3.3 Modèle orienté recherche 3.3.1 Résultats
Dans la résolution de cette application par le modèle orienté opérationnel, nous avons repéré la forte influence que la contrainte économique porte sur les résultats. Bien que des solutions avec déconstruction et respectant la contrainte existent, les solutions trouvées par le modèle sont concentrées autour d'une démolition traditionnelle. Afin de ne pas encore entraver l'espace de recherche, nous n'appliquons pas la contrainte économique pour la résolution de l'application par le modèle orienté recherche. Le modèle trouve 30 solutions optimales. Ayant repéré dans le Chapitre 2 que l'ACV était grandement influencée par le traitement des déchets, nous séparons ces solutions optimales selon leur taux de stockage. Nous obtenons alors deux groupes. Le premier (12 solutions) possède un taux de stockage entre 1 et 3 %, tandis que le deuxième groupe (18 solutions) augmente son taux de stockage entre 5 et 7 %. La Figure 4.4 illustre les performances des deux groupes sur les autres fonctions-objectifs. 155 CHAPITRE 4. APPLICATIONS DU MODÈLE DE DÉCONSTRUCTION
Figure 4.4 : Boîtes à moustaches des deux groupes de solutions du modèle orienté recherche pour l'application n°2 sur les fonctions-objectifs (a) de coût, (b) de délais, (c) d'impact sur la santé humaine, (d) d'impact sur la disponibilité de la ressource et (e) de la qualité de l'écosystème
Les solutions du groupe 2 se traduisent par un coût et des impacts environnementaux plus faibles que celles du groupe 1 : en moyenne, un coût réduit de 32 %, l'impact sur la santé humaine réduit de 6 %, l'impact sur la disponibilité de la ressource réduit de 67 % et l'impact
156 CHAPITRE 4. APPLICATIONS DU MODÈLE DE DÉCONSTRUCTION
de la qualité de l'écosystème réduit de 79 %. Les deux groupes offrent une distribution assez similaire en matière de délais. Le groupe 2 dispose d'une solution aux délais très longs (32 jours) ; cette solution apparaît à l'extrême haut de la Figure 4.4.b. La même solution porte également l'impact le plus faible sur la santé humaine. Elle reste une solution optimale. Dans le groupe 1, 25 % des solutions préconisent la démolition traditionnelle et 58 % désignent l'utilisation de deux pelles hydrauliques pendant la phase de démolition. Dans le groupe 2, 33 % des solutions soutiennent une démolition traditionnelle et seulement 28 % envisagent les deux pelles hydrauliques pour la phase de démolition. Quels que soient les choix sur les variables de décision Démol (i.e. déconstruction ou démolition traditionnelle) et DeuxPelles (deux pelles hydrauliques ou non pour la phase de curage), l'influence sur les fonctions-objectifs autres que les délais est faible. La différence entre démolition traditionnelle et déconstruction est faible dans ce cas de chantier, car ce de est très pauvre en éléments de second-oeuvre. La gestion des déchets reste l'élément central pour évaluer ces solutions. Le Tableau 4.14 présente la distribution des variables de décision sur le choix de traitement des déchets. Tableau 4.14 : Résultats des variables majeures de décision pour les deux groupes de solutions, selon le modèle orienté recherche pour l'application
n°2 Variable de décision Traitement du béton Traitement du bois (seulement si déconstruction) Traitement de la brique plâtrière (seulement si déconstruction) Traitement des DND divers Traitement du métal (fer à cisailler) Traitement du métal (platin) Groupe 1 100 % Remblaiement Groupe 2 100 % Recyclage 45 % Recyclage, 33 % Tri, 11 % Incinération et 11 % ISDND 42 % Recyclage, 8 % Tri, 8 % Incinération et 42 % ISDND 56 % Réaménagement, 22 % Tri, 11 % Incinération et 11 % ISDND 17 % Tri, 66 % Incinération et 17 % ISDND 50 % Tri, 33 % Incinération et 17 % ISDND 25 % Recyclage, 50 % Tri, 17 % Incinération et 8 % ISDND 33 % Recyclage, 17 % Tri, 17 % Incinération et 33 % ISDND 39 % Tri, 44 % Incinération et 17 % ISDND 50 % Recyclage, 33 % Tri, 11 % Incinération et 6 % ISDND 28 % Recyclage, 44 % Tri, 11 % Incinération et 17 % ISDND
Avec un béton qui représente près de 96 % de la masse totale de déchets, il est évident que le taux de stockage est intimement lié au traitement de ce déchet. Le remblaiement permet d'obtenir un taux de stockage minimal grâce un taux de valorisation estimé à 100 % pour une tonne de déchet utilisé en remblaiement. En contrepartie, les coûts de traitement sont plus importants et la matière est valorisée dans un usage de niveau très inférieur (le béton ne remplace que de la terre). En conséquence, les impacts potentiellement évités sont assimilés comme nuls. L'avantage est alors au recyclage du béton dans du granulat routier, qui permet à la fois réduire le coût de traitement (le béton peut être racheté) et les impacts (car on évite potentiellement la production de granulats). Nous retrouvons le même constat que celui issu de l'exploration de l'ACV (Chapitre 2 §3.3.1.2) : une valorisation très forte peut, à un certain stade, être désavantageuse pour l'environnement. Pour les autres déchets, le choix du traitement est très varié. La forte distribution du choix de traitement pour les DND divers est compréhensible : nous avons vu dans l'application n°1 3.3.2 Discussion
Le modèle orienté recherche propose un ensemble de stratégies optimales plus variées que le modèle orienté opérationnel. En n'appliquant pas la contrainte économique, des solutions proches de celles du chargé d'études (avec déconstruction) ont été trouvées. La déconstruction est d'ailleurs majoritaire parmi les solutions optimales. Le choix d'une seule pelle hydraulique pendant la phase de démolition est également le plus présent (60 % des solutions, groupes confondus). En rajoutant une variété assez large sur le nombre d'ouvriers pour le curage (les solutions proposent entre 2 et 5 ouvriers), le chargé d'études dispose d'un choix très vaste quant à la durée du chantier. L'ensemble de solutions trouvées par le modèle orienté recherche est cependant moins pertinent quant à la gestion des DND valorisables (choix de traitement et choix de centres de traitement), faute d'une exploration suffisamment approfondie de l'espace de recherche. Pour confirmer le manque de recherches sur les centres de traitement, nous pouvons comparer les solutions proposant une démolition traditionnelle avec une seule pelle hydraulique, et les solutions similaires du modèle orienté opérationnel, identifiées comme le groupe 2. Nous effectuons la comparaison sur les fonctions-objectifs communes, à savoir le coût, les délais et le taux de stockage. Les solutions de la version recherche sont en moyenne 10 % plus chères, les délais sont 7 % plus longs et le taux de stockage est en moyenne de 0,5 % supérieur. La faible augmentation est dû à la très faible proportion que représentent les DND valorisables sur la masse totale de déchets. Certaines solutions du modèle orienté recherche sont dominées par des solutions du modèle orienté opérationnel. Une solution du groupe 2 n'est pas dominée par les solutions du modèle orienté opérationnel. En effet, elle présente des minima au niveau du coût et du taux de stock qui se situent en-dessous des minima trouvés par le modèle orienté opérationnel. Cette solution est très proche de la stratégie effectuée sur le chantier. Elle ressemble à la solution que le chargé d'affaires a apprécié dans les résultats du modèle orienté opérationnel ; elle correspond à une démolition traditionnelle, avec le recyclage du béton et des métaux, puis une gestion locale des déchets restants. Nous avons noté précédemment que le chargé d'affaires avait approfondi l'optimisation du coût sur ce chantier, en séparant notamment de nouveaux métaux (zinc et câbles) et en demandant au chef de chantier de conduire la pelle hydraulique. 3.3.3 Exploration du modèle
Nous utilisons ce deuxième cas d'application pour explorer le modèle d'optimisation. La partie ACV du modèle exige l'échange d'un grand nombre de données entre les deux modèles et de nombreux appel aux calcul d'ACV. Cela requiert des temps de calcul très importants, rendant très difficile l'exploration du modèle. Explorer un modèle nécessite de faire plusieurs itérations du modèle. De plus, le modèle ACV, seul, a été exploré dans le Chapitre 2. Aussi, afin de limiter les temps de calcul, nous n'explorerons ici le modèle d'optimisation qu'avec les fonctions-objectifs de coût, de délais et de taux de valorisation matière (i.e. taux de stockage). À travers cette exploration, nous souhaitons étudier l'impact des méthodes de déconstruction sur le modèle. Nous nous concentrerons alors sur les variables de décision Démol et DeuxPelles. Ces variables sont essentielles pour une entreprise de déconstruction. Se concentrer sur les travaux en eux-mêmes permet une complémentarité par rapport à l'exploration du modèle ACV (renvoi vers le chapitre 2). Nous y avons vu que le modèle ACV était particulièrement sensible au choix des traitements et des centres de traitement des déchets. En revanche, les travaux de déconstruction y sont peu visibles. Mais ces derniers influencent les autres fonctions-objectifs. La variable Démol, qui définit si l'on se positionne dans un cadre de démolition ou de déconstruction, a une influence majeure sur toutes les fonctionsobjectifs : la démolition traditionnelle est plus rapide (impact sur les délais), mais la possibilité de tri sur site des déchets se réduit (impact sur le taux de valorisation matière) et cela se répercute sur les frais de gestion (impact sur le coût). L'exploration est alors lancée sur quatr cas avec les variables de décision suivantes : - Cas 1 : Démol = Non et DeuxPelles = Non - Cas 2 : Démol = Non et DeuxPelles = Oui - Cas 3 : Démol = Oui et DeuxPelles = Non - Cas 4 : Démol = Oui et DeuxPelles = Oui. Pour chacun des cas, les variables de décision Démol et DeuxPelles sont fixées avant le lancement de l'optimisation. Le modèle a été configuré avec 50 000 évaluations et 3 itérations, entraînant une recherche d'environ 4 heures pour chaque cas. La Figure 4.5 décrit, sous forme de boîtes à moustaches, les résultats des quatre cas d'exploration sur les fonctions-objectifs. CHAPITRE 4. APPLICATIONS DU MODÈLE DE DÉCONSTRUCTION
Figure 4.5 : Boîtes à moustaches des 4 cas d'exploration de l'application n°2 pour les fonctions-objectifs (a) de coût, (b) de délais et (c) de taux de stockage
Le Tableau 4.15 décrit la distribution des variables de décision concernant le traitement des déchets. 160 CHAPITRE 4. APPLICATIONS DU MODÈLE DE DÉCONSTRUCTION
Tableau 4.15 : Variables de décision des solutions optimales sur le traitement des déchets pour les 4 cas d'exploration du modèle de déconstruction dans le contexte de l'application n°2 Variable de décision Traitement du béton Traitement du bois Traitement de la brique plâtrière Traitement des DND divers Traitement du métal (fer à cisailler) Traitement du métal (platin) Cas 1 Cas 2 Cas 3 Cas 4 Recyclage à 67 % et Remblaiement à 33 % Recyclage à 67 % et ISD à 33 % Recyclage à 56 % et Remblaiement à 44 % Recyclage à 56 % et ISD à 44 % Recyclage à 50 % et Remblaiement à 50 % Recyclage à 50 % et Remblaiement à 50 % Dans les DND divers Dans les DND divers Remblaiement à 100 % Remblaiement à 100 % Dans les DND divers Dans les DND divers Incinération à 100 % Incinération à 89 % et ISD à 11 % Tri à 50 %, Incinération à 33 % et ISD à 17 % Tri à 33 %, Incinération à 50 % et ISD à 17 % Recyclage à 100 % Recyclage à 100 % Recyclage à 100 % Recyclage à 100 % Recyclage à 100 % Recyclage à 100 % Recyclage à 67 %, Incinération à 17 % et ISD à 16 % Tri à 50 %, Incinération à 17 % et ISD à 33 %
Pour ce chantier, un taux de valorisation efficace est aisément atteint, même lorsque le chantier subit une démolition traditionnelle (Figure 4.5.c). Cependant, s'il y a démolition traditionnelle, le coût augmente en moyenne de 0,8 % avec une pelle hydraulique, et de 13 % avec deux pelles hydrauliques par rapport à une déconstruction. Utiliser deux pelles hydrauliques au lieu d'une con à une augmentation générale du coût du chantier, jusqu'à 15 % sans démolition traditionnelle (Figure 4.5.a). En contrepartie, les délais sont réduits de 23 % (sans démolition traditionnelle) et de 36 % (avec démolition traditionnelle) par rapport à une déconstruction (Figure 4.5.b). La variabilité sur les délais est néanmoins très faible (coefficient moyen de variation à 1,6 %). Des solutions moins coûteuses que celle présentée par le chargé d'études ont été trouvées avec les cas 1, 3 et 4. Nous repérons encore qu'un taux de valorisation optimal (cas 2) conduit à des coûts élevés (Figure 4.5.a et c). Les leçons que l'on peut tirer de cette exploration du modèle sont les suivantes. L'utilisation de deux pelles (variable de décision DeuxPelles = Oui) réduit la durée plus que ne ferait une démolition traditionnelle (variable de décision Démol = Oui). En contrepartie, cette méthode de travaux provoque une augmentation de coût plus conséquente. Une entreprise de déconstruction doit donc réfléchir avec attention avant de programmer deux pelles pour la phase de démolition. La démolition traditionnelle est plus mesurée sur le coût et les délais, mais elle présente un impact négatif sur le taux de stockage, ce que ne fait pas le choix de deux pelles pour la phase de démolition. Ces leçons sont à considérer avec précaution, car la dépendance avec le cas d'application est très forte. Par exemple, si le second-oeuvre était plus fourni, la différence de délais entre déconstruction et démolition traditionnelle aurait été plus conséquente. Sur un autre plan, en analysant les variables de décision sur le traitement des déchets (Tableau 4.15), nous pouvons identifier certaines limites au modèle. Les petites masses de
APPLICATIONS DU MODÈLE DE DÉCONSTRUCTION
déchets sont moins bien étudiées par l'optimisation. Dans les cas 1 et 2, le bois (0,7 % de la masse totale des déchets) peut être recyclé car le chantier est estimé en déconstruction (variable de décision Démol = Non). Pourtant, seulement 58 % des solutions proposent de recycler le bois tandis que les solutions restantes choisissent le stockage. Le stockage est doublement négatif par son prix (centres plus chers et plus éloignés que le recyclage) et son taux de valorisation matière (nul). Même le platin (0,4 % de la masse totale des déchets), pourtant métal pouvant conduire à du profit financier, est mal géré dans le cas 4, qui partage ses entre du tri (50 %), de l'incinération (16 %) et du stockage (34 %). De la même manière que le bois, la gestion des déchets non dangereux divers n'est pas efficace. S'il y a déconstruction, ils sont transférés en incinération (le traitement le plus cher) sur 92 % des solutions. En cas de démolition traditionnelle, la masse de déchets non dangereux divers double (Tableau 4.13). En conséquence, des traitements moins chers sont étudiés : le tri sur 42 % des solutions et le stockage sur 33 % des solutions. Ainsi, plus les masses de nature de déchets sont importantes, plus les variables les caractérisant sont mieux étudiées dans l'optimisation. En conséquence, on favorise les traitements au coût et au taux de stockage les plus faibles. Certains choix de bennes proposés par le modèle sont mal appropriés, même après 50 000 évaluations. Dans les cas 3 et 4, les déchets non dangereux sont majoritairement transportés en mélange et la logique voudrait de choisir les bennes au plus gros volume. Pourtant, ces cas choisissent un volume de 12 m3 pour la moitié de leurs solutions. Dans les cas précédents (1 et 2), le choix d'un volume de 30 m3 était systématique. Nous repérons également que la sélection des meilleurs centres de traitement est effectuée parfaitement par l'outil lorsque les comparaisons sont flagrantes (e.g. un écart important dans le coût, dans le taux de valorisation matière ou dans les distances). Ainsi, une petite masse de déchets comme la brique plâtrière est transférée vers le meilleur traitement possible car le coût et le taux de valorisation matière sont très éloignés de ceux que proposent un centre de tri ou un centre de stockage. Cependant, lorsque les écarts (entre coût de traitement ou distance avec le chantier) sont plus nuancés, le modèle présente des difficultés à trancher entre deux solutions. L'exemple du fer à cisailler est idéal pour présenter cette limite. Pour le fer à cisailler à gérer sur ce chantier, les centres de recyclage à évaluer sont au nombre de deux : le prix de rachat du métal est identique (car il est défini par la cotation boursière au niveau mondial (The London Metal Exchange 2019)), mais un centre est plus proche du chantier que le deuxième, à un écart de 11 km. Malgré tout, le centre le plus proche est sélectionné pour ulement 54 % des solutions, tous cas confondus. Les limites repérées ici ciblent des choix inappropriés faits par le modèle d'optimisation pour des variables de décision aux incidences faibles (e.g. concernent des déchets aux petites masses), bien que des choix plus logiques et adéquats existent (e.g. un traitement moins cher et permettant une plus forte valorisation, un centre de traitement au même prix qu'un autre, mais avec une distance plus courte). Ces mauvais choix peuvent apparaître partiellement dans un ensemble de solutions optimales (i.e. une part de ces solutions présente les choix les plus intéressants) ou correspondent à la totalité de l'ensemble des solutions optimales. Ainsi, aucune solution trouvée n'est réellement optimale. Nous pouvons relier ces limites d'exploration aux limites d'optimisation repérées dans les applications du modèle orienté recherche. La cause est très probablement liée au temps de recherche effectué par le modèle. Ce dernier n'a peut-être pas trouvé les solutions réellement optimales car il n'a pas eu le temps de les évaluer. De ce fait, il faudrait augmenter le nombre d'évaluations à effectuer par itération. Ceci permettrait à l'algorithme d'évaluer plus de possibilités de chaque variable de décision, quelle que soit l'importance de ces dernières.
CHAPITRE 4. APPLICATIONS DU MODÈLE DE DÉCONSTRUCTION 4 Évaluation globale du modèle
L'application sur deux cas réels met en exergue plusieurs points forts du modèle. Pour la version opérationnelle, les solutions issues de l'optimisation sont cohérentes avec le métier. Le modèle retrouve des stratégies similaires à celle initialement proposée par le chargé d'études, en matière de déroulement de travaux, de plan de gestion des déchets et surtout en matière d'estimation des coûts et des délais. Les solutions conservent aussi une certaine logique. On privilégie les centres de traitement les plus proches et les moins chers. DBEA offre de plus une certaine diversité dans les solutions optimales, proposant un large choix au chargé d'études ou d'affaires. Ces solutions optimales sont trouvées en moins de 3 minutes de calcul. Le modèle représente un gain de temps et d'efficacité et l'optimisation s'effectue en respect des lois sur la gestion des déchets. La version recherche pâtit d'une moins bonne performance sur ces sujets, à cause d'une recherche pas assez approfondie. Les paramètres és à la profondeur d'exploration (itération et nombre d'évaluation) ont dû être largement réduits pour rester dans un temps de calcul raisonnable. Le temps de calcul est ainsi un gros frein. Malgré cela, l'approche reste très intéressante. L'évaluation environnementale par ACV est suffisamment précise pour varier entre chaque solution. L'ACV influence la recherche autrement que le bilan d'émission de GES. Dans l'application n°2 (section 3), l'ACV n'a pas favorisé la démolition traditionnelle comme a pu le faire le bilan d'émission de GES. La version recherche donne un tout autre ensemble de solutions optimales, avec une variété encore plus grande. 5 Pistes d'amélioration 5.1 Améliorer les calculs du modèle
Le modèle développé présente déjà des atouts non négligeables pour l'aide à la décision dans le domaine de la déconstruction. Toutefois, certains sujets peuvent encore être améliorés pour aider son utilisateur (i.e. chargé d'études ou d'affaires) ou pour élargir son champ d'investigation. Ces sujets sont directement liés aux points faibles identifiés précédemment. Le premier aspect porte sur l'évaluation de la quantité de déchets. Une piste pour l'améliorer pourrait être le recours au BIM (Building Information Model). Présenté dans le Chapitre 1, le BIM voit son exploitation croître pour modéliser en détail un bâtiment en conception. Une fois le bâtiment en fin de vie, son BIM représenterait un atout considérable pour la déconstruction, en permettant d'obtenir un quantitatif exhaustif des matières utilisées pour la construction du bâtiment. L'incertitude portée sur le coût en serait très grandement diminuée. Un autre ajout serait l'utilisation d'un RCPSP (Resource-Constrained Project Planning Problem). Certains outils vus dans le Chapitre 1 ont exploité cette méthode pour optimiser le coût et les délais d'une procédure de déconstruction (Schultmann et al. 1998; Schultmann 2003; Schultmann 2007; Schultmann et Rentz 2001; Schultmann et Rentz 2002). Dans notre modèle, un RCPSP permettrait tout d'abord d'affiner le coût en ajustant les machines nécessaires en fonction de la taille de l'équipe, notamment pour la phase de curage. Le chargé d'études aurait automatiquement le nombre et la durée d'utilisation de chaque machine nécessaire. Dans le modèle conçu (Chapitre 3), nous estimons le coût des machines à partir de la durée des machines nécessaires si un seul ouvrier effectuait les travaux. Pour intégrer un RCPSP, nous devons toutefois disposer de la de données adéquate (i.e. pour chaque tâche, rendement de travail selon la technique de dépose et le type d'outil ou de mini-engin utilisé). Ensuite, nous pourrions avec le RCPSP intégrer plus de variables de décision en matière de méthodes de travaux. Comme fait dans les travaux de Frank Schultmann (Schultmann et al. 1998; Schultmann 2003; Schultmann 2007; Schultmann et Rentz 2001; Schultmann et Rentz 2002), le modèle estimerait la meilleure pratique pour déconstruire chaque élément du bâtiment. Pour déconstruire les cloisons, est-ce mieux de le faire à la masse, au marteaupiqueur ou à la mini-pelle? En résolvant ce type de question, les ressources humaines et matérielles seraient précisément estimées. Le chargé d'études n'aurait plus à renseigner les jours alloués (i.e. nombre de jours de travail si un seul ouvrier travaillait). Ce degré de détail permettrait aussi d'envisager automatiquement le démontage sur place d'éléments complexes (i.e. des éléments contenant plus d'un seul matériau), comme les panneaux sandwich, les cloisons à ossature valorisable (e.g. métal ou bois), les faux plafonds à ossature métallique. La séparation de tels éléments requiert un temps de travail supplémentaire sur le chantier. L'allongement de la durée doit être évaluée en fonction des matières valorisables qui peuvent être récupérés. L'intérêt est d'autant plus grand lorsqu'il s'agit de métaux, car ces derniers peuvent être revendus par l'entreprise de déconstruction. Dans le modèle conçu dans le cadre de cette thèse, pour pouvoir estimer la séparation de ces éléments, le chargé d'études doit l'avoir prévu initialement dans le remplissage du quantitatif des éléments de 164
CHAPITRE 4. APPLICATIONS DU MODÈLE DE DÉCONSTRUCTION
construction, effectué avec l'outil développé en amont du modèle d'optimisation (Chapitre 3 §1.2). Après avoir amélioré la décision pour les travaux, nous pourrions nous intéresser à la décision pour la gestion des déchets. Remplacer l'ACV attributionnelle par une ACV conséquentielle (Chapitre 2 §3.1) dans le modèle d'optimisation offrirait des résultats plus solides dans ce domaine. En effet, la gestion des déchets en ACV dépend de nombreuses hypothèses (e.g. taux de valorisation, taux de substitution) que l'ACV conséquentielle peut mieux intégrer grâce à la considération du contexte socio-économique de chaque produit dont sont issus les déchets. L'application du modèle sur deux cas réels a montré la diversité des solutions optimales qui peuvent émerger de la . On présente à l'utilisateur les solutions composant le front de Pareto, parmi lesquelles il doit sélectionner la plus prometteuse selon ses préférences. Cela peut être une mission compliquée, surtout lorsque les solutions présentent des résultats proches et/ou que les solutions sont nombreuses. Pour faciliter la sélection de la solution, il serait possible d'ajouter une nouvelle étape d'aide à la décision. La première idée se base sur l'application d'une analyse multicritère sur les résultats, donc a posteriori du modèle. Nous avons vu dans le Chapitre 1 que des outils d'aide à la décision exploitent une analyse multicritère pour évaluer un nombre limité de solutions (Abdullah et Anumba 2002; Kourmpanis et al. 2008). 5.2 Réduire le temps de calcul
Le modèle orienté opérationnel est satisfaisant en termes de temps de calcul (3 mn de calcul). Ce point est très important pour une exploitation en entreprise. Le modèle orienté recherche, quant à lui, souffre d'une grande lenteur dans ses calculs (4 jours de calcul pour un nombre total d'évaluations près de 30 fois inférieur à celui du modèle orienté opérationnel). Son expérimentation sur deux applications a prouvé l'intérêt de la démarche, mais une exploration plus approfondie de l'espace de décision est nécessaire pour trouver les solutions réellement optimales (i.e. celles qui constituent le front de Pareto). Afin de réduire le temps de calcul, plusieurs travaux sont envisageables. CHAPITRE 4. APPLICATIONS DU MODÈLE DE DÉCONSTRUCTION
Nous pourrions simplifier l'ACV pour réduire le temps de calcul opéré par OpenLCA à chaque solution. Les ACV de cinq cas (Chapitre 2 §3.3) ont montré que certains points sont négligeables en matière d'impact quel que soit l'exemple (e.g. l'alimentation du personnel sur le chantier, le papier produit pour les contrats). D'autres activités sont également négligeables, mais il n'est pas possible de les retirer aussi facilement. L'importance réduite de ces activités peut être du fait de l'exemple (e.g. la masse de clôture utilisée dépend du cas), et non du modèle ACV. Pour cibler plus de points réellement négligeables (i.e. quel que soit le cas d'application), il est nécessaire d'étudier l'ACV sur un grand nombre de cas de chantier. Une autre approche consisterait à améliorer la performance de l'implémentation. Dans le code tel qu'il a été implémenté aujourd'hui, aucune stratégie particulière n'a été envisagée pour chercher à gagner du temps de calcul sur machine. Le code est ainsi sûrement améliorable ; on donne ici quelques pistes (non exhaustive) : la limitation du recours à certaines variables très lourdes (matrice à nombreuses dimensions), la limitation des échanges entre modèles via les fichiers csv, la parallélisassions du code (par exemple au niveau du calcul des fonction-objectifs). Ce travail qui relève de compétences en informatique pourrait apporter un gain important en termes de temps de calcul. Une autre réflexion pourrait aussi améliorer cet aspect. DBEA a été défini comme l'algorithme le plus performant pour notre modèle parmi huit algorithmes (Chapitre 3 §5.3). Mais la possibilité qu'un autre algorithme testé dépasse l'efficacité de DBEA n'est pas à écarter. Les algorithmes IBEA et SMS-EA sont prometteurs sur ce sujet car leur approche est basée sur la notion d'« indicateur ». Dans ces algorithmes, la recherche de solutions optimales est basée sur l'amélioration d'un indicateur mesurant la qualité d'un ensemble de solutions (Verel 2016). Les algorithmes testés jusqu'à présent, dont DBEA, utilisent une approche basée sur le front de Pareto (i.e. la dominance au sens de Pareto). Or de tels algorithmes ont été ciblés comme potentiellement déficients au-delà de trois fonctions-objectifs (Coello Coello 2017). Avec six fonctions-objectifs (coût, délais, taux de stockage et les trois indicateurs de l'ACV en endpoint), la résolution efficace de notre modèle peut être compromise. L'utilisation d'un algorithme plus performant réduirait probablement le temps de calcul. 6 Conclusion
Le modèle sous ses deux versions (opérationnel et recherche) a été appliqué sur deux cas d'études réels. Les résultats de l'optimisation ont été confrontés directement aux stratégies proposées par les experts du métier : d'abord au stade de l'étude, avec le chargé d'études, puis au stade du chantier, avec le chargé d'affaires. Ces deux visions ont été conservées car des différences peuvent y subsister : tandis que le chargé d'études peut privilégier l'optimisation du coût, le chargé d'affaires se concentre sur la praticité sur le terrain. Le modèle présente des bénéfices relatifs à ces deux visions. La rapidité de résolution de la version opérationnelle assure son utilisabilité. L'ensemble de solutions optimales offre une bonne diversité de stratégies, performantes autant sur les objectifs économiques (coût et délais) qu'environnementaux (taux de stockage et bilan d'émission GES). La version recherche permet de nourrir plus intensément les réflexions sur l'impact environnemental des différentes stratégies. Cependant, pour être réellement efficace, cette version nécessiterait une optimisation de son temps de calcul, ce qui permettrait une plus grande exploration de l'espace de solutions. L'approche d'évaluation via l'ACV a démontré son intérêt. Les catégories d'impact sont sensibles à chaque variable de décision. Les 3 fonctions-objectifs de l'ACV (i.e. impact sur la santé humaine, sur la disponibilité de la ressource, sur la qualité de l'écosystème) permettent de discriminer les différentes stratégies possibles. L'ACV conduit aussi à certaines solutions optimales que la version opérationnelle n'envisageait pas au premier abord, ouvrant à plus de réflexion sur une gestion adéquate des déchets. Les deux versions du modèle savent faire des compromis et déceler les méfaits d'un taux de valorisation excessif (e.g. application n°1, avec le traitement de la brique plâtrière). Le modèle peut résoudre la majorité des cas de déconstruction, mais certains points peuvent être améliorés pour garantir son exhaustivité. Des pistes ont été ébauchées dans ce chapitre (e.g. RCPSP, BIM). Nous reviendrons sur ces aspects dans les perspectives ouvertes de la conclusion. CONCLUSION GÉNÉRALE Synthèse et apports scientifiques
La gestion des déchets est une activité majeure de la déconstruction de bâtiments ; elle induit un lourd budget et est responsable d'impacts environnementaux qui vont s'accroître au fil des années avec l'augmentation de ce type de travaux. Une gestion efficace des déchets ne pourrait cependant s'évaluer sans intégrer l'activité-même de déconstruction. Les deux actes sont intimement liés par les méthodes de travaux retenues (e.g. déconstruction ou démolition traditionnelle), induisant la possibilité pour un déchet d'être trié sur site et transféré vers une valorisation optimale. On ne peut en effet se contenter des centres de tri, car ces derniers conduisent à des taux de recyclage limités. Une optimisation des stratégies de déconstruction et de gestion des déchets doit donc s'opérer au coeur des décisions, à l'intérieur des entreprises de déconstruction. Des outils ont été conçus pour apporter de l'aide à la décision sur la gestion des déchets de déconstruction. Or, la gestion des déchets et l'acte de déconstruction sont trop peu associés dans ces outils. Les stratégies envisageables sont limitées : l'outil ne considère qu'un nombre très réduit de déchets ou analyse des solutions préétablies, qui ne se contextualisent pas selon le chantier. L'apport réel de l'aide à la décision pour le décideur en est réduit. De plus, les évaluations se limitent trop souvent à réduire le coût de chantier et le taux de stockage des déchets. Ces critères sont insuffisants pour évaluer une déconstruction et une gestion des déchets de manière exhaustive. L'évaluation d'une gestion des déchets doit ainsi consister à évaluer une stratégie complète de déconstruction, de la phase de travaux au devenir des déchets. Le cadre réglementaire fixe le taux valorisation matière en tant qu'objectif environnemental (70 % de valorisation matière en 2020). Il est cependant insuffisant pour évaluer le réel impact environnemental d'une stratégie de déconstruction. Nous avons démontré qu'un fort taux de valorisation matière pouvait finalement se montrer négatif pour l'environnement (e.g. centre de valorisation éloigné du chantier, valorisation produisant un matériau secondaire de faible qualité). De nouveaux critères et approches pour les évaluer ont été proposés dans cette thèse au travers du bilan d'émission de Gaz à Effet de Serre (GES) et de l'Analyse de Cycle de Vie (ACV). Ces deux approches apportent des visions novatrices sur une stratégie de déconstruction, en ciblant les activités les plus productrices d'impact, là où doit se porter la réflexion pour envisager de nouvelles pratiques. Nous avons ainsi proposé d'associer l'indicateur réglementaire et une méthode de calcul d'impacts environnementaux. Le bilan d'émission de GES et l'ACV présentent tous deux des avantages et des inconvénients. Nous avons suggéré d'utiliser le bilan d'émission de GES dans le cadre d'une approche opérationnelle utilisable dès maintenant par les entreprises de déconstruction et l'ACV dans un cadre plus prospectif (recherche) pour obtenir une évaluation plus exhaustive des impacts environnementaux. L'optimisation d'une stratégie de déconstruction (comprenant la gestion de ses déchets) doit se faire à travers plusieurs objectifs. Les premiers sont d'ordre opérationnel (coût et délais), tandis que d'autres (taux de stockage matière et bilan d'émission de GES ou ACV) définissent les enjeux environnementaux. Le problème est formalisé sous la forme d'un modèle d'optimisation multi-objectif pour deux raisons : les objectifs ciblés sont conflictuels et chaque chantier représente un cas à part entière. Les variables de décision touchent à la configuration de chaque étape d'une stratégie de déconstruction : travaux, contenants de transport des déchets, type et centres de traitement des déchets. Les travaux sont étudiés en fonction des méthodes de travaux (e.g. déconstruction ou démolition traditionnelle) et des ressources humaines et matérielles. Le volume des contenants de transport des déchets influence le stockage sur site des déchets et leur transport. Jusqu'à 41 natures différentes de déchets sont étudiées par le modèle. Pour chaque nature de déchet, le m évalue jusqu'à 6 traitements possibles dans les conditions techniques et économiques actuelles. Le modèle sélectionne enfin les meilleurs centres de traitement vers lequel évacuer les déchets. Pour résoudre le modèle, l'algorithme génétique DBEA (Decomposition-Based Evolutionary Algorithm) est le plus efficace. L'application du modèle de déconstruction sur deux cas réels de chantier de déconstruction ont permis de démontrer la pertinence de la démarche proposée. Les stratégies trouvées par le modèle orienté opérationnel (avec bilan d'émission de GES) sont diverses. Elles proposent plusieurs compromis entre les objectifs, ce qui représente autant de choix pertinents pour le décideur. Le modèle a permis sur ces deux cas d'application de trouver des solutions dominant la solution initiale du chargé d'études. Le chargé d'affaires responsable du futur chantier a aussi jugé les solutions intéressantes. CONCLUSION GÉNÉRALE Perspectives
Le modèle d'optimisation de la déconstruction conçu apporte une aide à la décision pertinente pour la majorité des études de déconstruction. La version orientée opérationnelle a pu être exploitée dans des conditions réelles. Cette version est utilisable en l'état par une entreprise de déconstruction. Cependant la version orientée recherche nécessite quelques efforts supplémentaires pour la rendre pleinement opérationnelle. Sa principale limite porte sur le temps de calcul qui doit être réduit. Pour cela, plusieurs possibilités sont envisagées : simplifier l'ACV, améliorer l'implémentation du code, expérimenter l'optimisation avec un autre algorithme génétique (par exemple basé sur des indicateurs de qualité) ou utiliser un serveur de calcul. Concernant la recherche d'optimisation, la version orientée recherche peut également être améliorée en remplaçant l'ACV attributionnelle par une ACV conséquentielle. De ce fait, les calculs intégreraient une meilleure vision des impacts liés à la gestion des déchets, à travers ses conséquences dans un contexte socio-économique. Le modèle, quelle que soit sa version, demande un investissement amont de la part du décideur : estimation du quantitatif des déchets, du nombre de jours alloués, du type et durée des mini-engins Le BIM (Building Information Modelling) serait efficace pour répondre à la question de l'estimation des déchets. Le BIM est une maquette numérique permettant de situer, d'identifier et de quantifier tout élément d'un bâtiment. En intégrant le BIM au modèle, nous obtiendrons un quantitatif précis des déchets à gérer sur le chantier de déconstruction. La forte incertitude vis-à-vis de ce quantitatif sera évitée. Mais l'exploitation du BIM dans le domaine de la déconstruction nécessite encore quelques années car les bâtiments disposant du BIM sont ceux construits à 'heure actuelle. Leur fin de vie ne surviendra pas avant des décennies. Pour estimer automatiquement le nombre de jours alloués et les ressources matérielles de type mini-engins, notamment pour la phase de curage, le RCPSP (Resource-Constrained Project Planning Problem) est l'outil idéal, permettant d'adapter la réalisation d'une activité en fonction des ressources et de la durée à minimiser. Sans préciser le planning de déconstruction jusqu'à la dépose d'une plinthe, nous pourrions optimiser, par le biais du RCPSP, la durée du curage en fonction des machines et des techniques envisageables de dépose. Nous devrions cependant réaliser au préalable un important recueil de connaissances relatives aux rendements de travail. Le décideur est également sollicité en aval du modèle : il doit évaluer l'ensemble des solutions optimales.
| 9,507
|
5a532a5503fcf6995e36f5144ffd3fcf_13
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,018
|
Littérature et cognition pour une approche autopoïétique des oeuvres de Michel Houellebecq, Éric Chevillard et Anne Garréta
|
None
|
French
|
Spoken
| 7,095
| 12,604
|
71. George Louis Leclerc, comte de Buffon (1707-1788) est un naturaliste français qui a collaboré à l’Encyclopédie en travaillant sur les parties concernant les sciences de la nature. Il place l’homme grâce à ses capacités
de raisonnement au-dessus du règne animal, au cœur de la création. Son objectif est de catégoriser les animaux
en élaborant des fiches descriptives contenant une illustration et une description générale, puis anatomique.
C’est une cible parfaite pour Chevillard dont le personnage par excellence est l’animal : « […] j’ai toujours le
sentiment qu’ils [les animaux] se moquent des hommes, que leurs activités parodient les nôtres. Ils m’offrent
des fables toutes faites. Prenez la poule et l’autruche. N’étant pas soumise comme la poule à des impératifs de
productivité, l’autruche n’a aucun mérite à pondre des œufs aussi gros. Laissez un peu de temps à vos poules,
et vous verrez » (cf. Robert, « Le monde selon Crab », en. cit.).
72. André, « Récit contrarié, récit parodique », en. cit., p. 36.
73. Chevillard, Du hérisson, op. cit., p. 91.
Page 220
Chapitre II — La spirale épineuse du Hérisson
partie des gestes de modulation plastique qui créent, façonnent cette spirale
en « hérissonnement ».
Tous ces agencements omnivores qui surgissent dans les replis et les dépliements des séquences n’ont pas simplement la portée d’une contestation,
d’un jeu de « dérèglement narratif » 76 selon les termes de Blanckeman, mais
constituent des agencements ouverts à des flux métastables qui permettent
de concevoir la spirale hérisonneuse naissante au sein d’une dynamique
autopoïétique.
*
*
*
Mais cette entreprise ne se réalise pas seulement à travers la production
d’agencements omnivores. Cette boule de texte dresse ses pointes, se transforme en un véritable hérisson-mortier destiné à la lutte anti-sous-marine
et attaque par des agencements piquants la posture autobiographique, la
sculpture d’une figure. Ces agencements contribuent à maintenir la concomitance des gestes de modelage et de modulation plastiques qui façonnent
la spirale dans une dynamique autocréatrice, et peuvent être perçus au niveau des scènes parodiques « meurtrières » 77 et des discours acrimonieux
déployés au sein du régime complexe de répétition autour du hérisson. Ces
scènes et ces discours sont extrêmement visibles au niveau des passages
sur la future autobiographie, Vacuum extractor, dans laquelle la naissance,
l’enfance, l’amour, la vie de famille et professionnelle and so on… seront minutieusement racontés :
«Nous dormions mal. Un dortoir d’internat est une étable jouxtant un
74. André, « Récit contrarié, récit parodique », en. cit., p. 35. André souligne que l’auteur confesse luimême la réutilisation de discours déjà existants dans ses commentaires métatextuels : « le dictionnaire technique que je recopie » (Chevillard, Du hérisson, op. cit., p. 43) ou « Encore une information puisée dans l’Histoire naturelle, dont je possède une édition magnifique/reliée en pleine peau » (ibid., p. 128).
75. C’est une approche qu’on retrouve dans l’étude d’André cité ci-dessus : « Présent sous différentes formes
plus ou moins explicites et identifiables, le déjà-écrit se développe de façon inflationniste au cœur du texte, avec
pour effet insidieux de contaminer l’ensemble du discours du narrateur ». Ceci incite le lecteur à « relancer sans
cesse la question lancinante de “qui parle ici ?” » (cf. André, « Récit contrarié, récit parodique », en. cit.).
76. Blanckeman, « “L’écrivain marche sur le papier” », en. cit., p. 33.
77. Ibid., p. 72.
2 — Agencements épineux et métastabilité : la
plasticité d’une spirale
Page 221
abattoir. Au matin, l’un d’entre nous devra mourir. L’eau des lavabos, on
s’en barbouille. Elle a goût de rouille. On vieillit vite sous ces robinets. Vacuum
extractor sera constitué aux trois quarts de mes souvenirs d’internat. J’ai passé
ma vie là-bas. […] » 78.
«Je décrirai le jardin dans Vacuum extractor. On y verra, depuis la terrasse d’ardoise, par ordre d’apparition, l’œil balayant les pelouses de gauche
à droite, l’arbre de Judée, le cerisier fleur, le cèdre du Liban, le séquoia, le
ginkgo, les trois bouleaux, les deux aubépines, le cerisier, le saule pleureur, le
tilleul, le marronnier, un autre grand cèdre près du cèdre bleu, le vernis du
Japon, […] » 79.
«Il y avait aussi quatre ou cinq peupliers à gauche de la maison
et l’un d’entre eux s’introduisit même dans le salon par la fenêtre, une nuit
de tempête. Je replante ces arbres sans grand soin, tous ces souvenirs seront
ordonnés à la française dans Vacuum extractor » 80.
À travers ces agencements piquants le hérisson-mortier barre la route
à toutes les postures narratives et rhétoriques de l’autobiographie, comme
« la confession, l’introspection, le regard de la maturité sur la vie et l’œuvre
passée ou l’interrogation scrupuleuse d’une mémoire défaillante, néanmoins
compensée par le souci de sincérité » 81 , ainsi qu’à « la confidence et l’aveu » 82.
Ses piquants ciblent d’une façon impitoyable l’aveu sexuel, ce domaine privilégié de l’autobiographie : « L’aveu sexuel dans l’autobiographie ne saurait
se comprendre que lié à la répression sexuelle et à son intériorisation par
l’éducation, c’est-à-dire lié à l’un des aspects de la constitution de la “personne” bourgeoise. […] Ce qui importe dans l’aveu, bien plus que la chose
avouée, c’est l’acte d’avouer. » 83
Dans Du hérisson, la scène du « douloureux secret » qui dévoile le viol
du narrateur enfant, dans un mouvement de rotation, « dérape progressivement vers le grotesque par des effets de répétition et d’amplification : l’enfant
est tour à tour violé par l’abbé, puis l’archevêque, puis le pape » 84 . De plus,
comme le souligne Monjour, l’inadéquation du style à la diégèse génère le
loufoque 85 et « permet le développement d’une réflexion générique comique,
78. Chevillard, Du hérisson, op. cit., p. 231.
79. Ibid., p. 220.
80. Ibid., p. 226.
81. Cousseau, « Lecture, jeu et autobiographie dans Du hérisson d’Éric Chevillard », en. cit., p. 234.
82. Ibid., p. 235.
83. Philippe Lejeune, « l’Autobiographie et l’aveu sexuel », hiver 2008, RLC, Revue de littérature comparée :
Autobiographies, p. 41.
84. Cousseau, « Lecture, jeu et autobiographie dans Du hérisson d’Éric Chevillard », en. cit., p. 235.
85. Monjour, « L’esthétique loufoque chez Éric Chevillard », en. cit., p. 207.
Page 222
Chapitre II — La spirale épineuse du Hérisson
envisageant tout à la fois les pôles de la création et de la réception autobiographique » 86 :
«De très nombreuses pages de Vacuum extractor relateront nos étreintes,
que nos chers parents liront en regardant ailleurs car les plus intimes détails
ne seront point omis et les façons dont on s’y prend pour que mon sexe entre
dans le sexe de Méline y seront décrites de manière à entretenir à chaque fois
un certain suspense » 87.
Ce texte-hérisson dresse donc ses piquants contre tout geste de la prosopopée 88 , c’est-à-dire contre toute littérature qui se bornerait à donner visage
à un moi préoccupé par les histoires banales de l’existence humaine : « Que
saurait-on de plus de moi si l’on connaissait mon douloureux secret ? Jouirait-on soudain d’un point de vue privilégié sur ma personne ? Ne suis-je que
cela, que mon douloureux secret ? » 89 . Mais encore une fois, à nos yeux, il ne
s’agit pas simplement d’un travail de contestation, mais d’un véritable « art
plastique » 90 où les agencements pleins de piques envers la posture autobiographique, qui se forment dans les replis et les dépliements des séquences,
contribuent au maintien de l’équilibre métastable de la spirale hérissonneuse
émergente.
*
*
*
86. Ibid.
87. Chevillard, Du hérisson, op. cit., p. 189 ; cit. ab ibid.
88. La prosopopée est une figure de rhétorique qui consiste à donner visage, à créer un masque (le mot
d’ailleurs vient du grec prosôpon, le visage et poiein, créer, fabriquer), faire parler un mort « tel Fabricius
dans le Discours sur les sciences et les arts de Rousseau », ou une allégorie « comme la Patrie, par la bouche
de qui Cicéron adjure l’ennemi public dans la première Catilinaire » (cf. barbara Cassin, « Prosopopée, Rhétorique », non daté, Encyclopædia universalis, op. cit.). Selon Paul De Man, la prosopopée est une figure par
excellence de l’autobiographie : « Prosopopeia is the trope of autobiography by which one’s name, as in the
M
poem, is made as intelligible and memorable as a face » (cf. Paul De Man, « Autobiography as defacement », 1984, in Rhetoric of romanticism, p. 76). « La prosopopée est le trope de l’autobiographie à travers
lequel, comme dans le poème de Milton, le nom de quelqu’un est rendu aussi intelligible et mémorable qu’un
visage » (traduction par moi-même).
89. Chevillard, Du hérisson, op. cit., p. 106.
90. Malabou, Que faire de notre cerveau ?, op. cit., p. 48.
2 — Agencements épineux et métastabilité : la
plasticité d’une spirale
Page 223
Le titre de l’autobiographie manquée, Vacuum extractor, du nom de la
ventouse obstétrique à laquelle le narrateur doit la vie, reflète le projet de
l’auteur, à savoir « mettre à nu le vide essentiel qui demeure une fois qu’elle
[l’existence] se trouve dépouillée des événements qui l’habitent » 91 . Ce récit de
vie inabouti tournant « d’un vide à l’autre » 92 est donc une anti-narration qui
joue le rôle de catalyseur, permettant à l’écriture-hérisson de faire-émerger
un globe épineux qui produit sa propre géographie. L’élaboration de ce globe
passe par les mots et le style, ce dernier étant « une caractéristique physique
de l’écrivain » 93 . L’écriture-hérisson « portée aux mots, plus qu’à l’histoire » 94
devient donc « une forme de poésie verbale » 95 dont les « rimes intérieures
et les octosyllabes » 96 travaillent à l’engendrement de ce globe en voie de
« hérissonnement » :
«Seule compte la poésie, dans le roman aussi. [...] On oublie que la littérature, comme la peinture, est un art du style. Est-ce que l’on juge un tableau
à son exécution ou à son motif ? Est-ce que l’on admire le travail du peintre
ou la gueule de son modèle ? Dans ce dernier cas, Les Mangeurs de pommes
de terre de Van Gogh [sic] est une croûte innommable comparée aux portraits
des jolies duchesses alignés par les peintres académiques » 97.
Étant le territoire par excellence d’un ramonage, ce globe contribue au
processus d’autocréation de la spirale hérissonneuse par le maintien d’un
travail de modelage et de modulation plastiques sur le langage.
Les deux adjectifs qui accompagnent l’animal, « naïf » et « globuleux »,
suggèrent dans chaque paragraphe ce travail plastique en miniature. Le hérisson qui se protège, fonctionne comme un système naïf se refermant sur
lui-même d’une façon répétitive, mais le régime d’écriture ne se répète pas
d’une manière aussi simple. « Globuleux » renvoie à un globe justement, un
monde authentique élaborant son propre langage : « Je sais d’ailleurs fort
peu de choses sur les hérissons naïfs et globuleux. On les dit globuleux , je
suppose, en considération de leur faculté à se rouler en boule, formant ainsi,
je le confirme, un globe à peu près parfait » 98.
En plus, ce globe épineux investit plusieurs procédés et figures stylistiques, rhétoriques et linguistiques pour exploiter la plasticité du langage.
On peut relever par exemple la figure rhétorique de la syllepse qui consiste
91. Cousseau, « Lecture, jeu et autobiographie dans Du hérisson d’Éric Chevillard », en. cit., p. 236.
92. Chevillard, Du hérisson, op. cit., p. 125.
93. Ibid., p. 19.
94. Viart, « Littérature spéculative », en. cit., p. 91.
95. Cousseau, « Lecture, jeu et autobiographie dans Du hérisson d’Éric Chevillard », en. cit., p. 242.
96. Chevillard, Du hérisson, op. cit., p. 18.
97. Robert, « Le monde selon Crab », en. cit.
98. Chevillard, Du hérisson, op. cit., p. 47.
Page 224
Chapitre II — La spirale épineuse du Hérisson
dans l’utilisation simultanée des sens figuré et propre d’un même terme.
C’est le cas du mot hérisson dont, comme l’on a déjà souligné, les trois sens
(animal, arme et objet de ramonage) sont exploités en même temps, ou du
verbe marcher : « Or j’ai toujours voulu croire ce qui marchait sur le papier
[...]. Ce qui marche sur le papier a toujours constitué pour moi la seule
réalité » 99.
Mais se propagent également d’autres figures qui mettent les mots sur la
piste du « hérissonnement », comme la paronomase, « Niglo , c’est en effet le nom
que les Gitans donnent au hérisson naïf et globuleux — une contractionfusion de naïf et de globuleux , je suppose, avec les lettres réservées ils en
font un mets fabuleux » 100 , ou encore l’anagramme, « la limace lovée dans sa
malice » 101.
Un autre procédé permettant un travail plastique sur le langage est le
« dispositif de l’incongru » 102 qui se réalise à travers deux modalités, la rupture et l’association :
«Rupture et association dessinent deux grandes tendances : la rupture
fait paraître incongru ce qui vient après elle. L’incongru instaure alors une
dynamique de la divergence [...]. L’association hétéroclite au contraire réunit
les éléments, et correspond à un mouvement centripète, à un plus grand statisme. Pour la rupture, nous disposons d’une appellation toute prête, c’est le
coq à l’âne. Pour l’association, on pourrait utiliser [...] la chimère » 103.
Le coq-à-l’âne se traduit par un changement brutal de sujet ou de registre, tandis que la chimère opère des connexions imprévisibles entre des
réalités complètement éloignées, sans aucun point commun : « Est-ce mon
bureau qui lui plaît, sa tranquillité de sous-bois, son tapis épais, ses poutres
sombres, sa Lune à la fenêtre, son feu dans l’âtre ? Quel feu ? Le feu est encore retombé. Comme si je n’avais plus rien à brûler ! » 104 ; « Ainsi surprendon parfois sur un visage une double ressemblance […], tels l’écureuil et la
Vierge au bon lait » 105 , etc. Ces deux manières de l’incongru pétrissent ce
globe hérissonneux au niveau langagier, et promeuvent la constitution de la
spirale au seuil du chaotique.
Les aphorismes et les « visions rocambolesques » 106 sont d’autres mani99. Ibid., p. 59 – 60.
100. Ibid., p. 160.
101. Ibid., p. 162.
102. Cf. Monjour, « L’esthétique loufoque chez Éric Chevillard », en. cit., p. 198. Monjour traite le « dispositif de l’incongru » comme un des principaux vecteurs loufoques du livre qui « établit une contradiction
ontologique dont l’étrangeté fait rire » (ibid.). Nous ne nous focalisons pas sur cet aspect loufoque.
103. Pierre Jourde, Empailler le toréador, l’Incongru dans la littérature française de Charles Nodier à Éric
Chevillard, 1999, p. 63 ; cit. ab ibid., p. 199.
104. Chevillard, Du hérisson, op. cit., p. 143.
105. Ibid., p. 84.
2 — Agencements épineux et métastabilité : la
plasticité d’une spirale
Page 225
festations d’un travail plastique sur le langage continuant à configurer ce
globe hérissonneux naissant : « le paon se marie à l’église » 107 , « le figuier s’est
organisé / la feuille cueille le fruit », « le scarabée fréquente un petit cireur de souliers »,
« le canari n’a pas touché au blanc de son œuf » 108 , ou encore « […] il y a douze
ans, un orang-outan évadé du jardin zoologique […] s’introduisit dans la
chambre du palace sur la mer où je résidais […], emprunta mon rasoir et
rasa complètement la fourrure rousse qui recouvrait son corps » 109.
L’amplification du détail à l’extrême et l’énumération constituent également des procédés qui soutiennent la création de ce globe épineux au niveau
langagier. Le souci d’établir le bilan des bouleversements causés par le hérisson, décrits de la façon la plus minutieuse possible, trouve son apogée dans
l’énumération. Celle-ci est, pour Chevillard, « une forme de délire, une accélération de la pensée qui file vers son but sans se laisser retarder, comme
on fourre en vitesse ses affaires dans un sac quand on est pressé de partir,
comme on avale les kilomètres qui nous séparent du bord de mer » 110 . Or,
dans notre lecture, ce procédé ne sert pas à instaurer un tempo rapide, une
accélération vers un but, mais contribue justement à l’élaboration d’un régime complexe de répétition, d’où résultent des séquences de stabilité qui
s’assemblent pour former un système émergent , tout en s’adonnant à des
états imprévisibles :
«Si dorénavant la mine de mon crayon se brise (c’est exactement pour
moi me casser la cheville) sans cesse dans les ornières et les ravines creusées par
le hérisson naïf et globuleux, comment pourrais-je mener à bien la rédaction
de Vacuum extractor, ce livre dont pour la première fois je jouerai les héros
le navigateur intrépide, le jeune ambitieux, l’amoureux idiot, le fils endeuillé,
le loup solitaire, le séducteur cynique, le fameux détective, le quinquagénaire
dépressif, le prince et la bergère, l’artiste maudit, le découvreur de mondes,
l’enfant épouvanté, le courageux malade, le mari jaloux, le nain diabolique,
le hérisson naïf et globuleux, le vieillard qui se retourne brusquement sur
mon passé, le suicidaire qui reprend goût à rien, l’homme entre deux femmes,
l’homme qui a touché Dieu, la créature WK-13 venue de Galthar sur une
onde, le roi nu ? Car je pense qu’il est temps pour moi d’apparaître
dans un livre en personne, d’arracher mon masque (squame , son reflet dans
106. Keyrouz, « Du hérisson de Chevillard », en. cit., p. 39.
107. Cette phrase fait référence aux Histoires naturelles de Jules Renard (1894), dont la partie intitulée « Le
paon se marie à l’église » débute ainsi : « Il va sûrement se marier aujourd’hui », (cf. Jules Renard, Histoires
naturelles, 1894).
108. Chevillard, Du hérisson, op. cit., p. 75. Ces trois exemples figurent déjà dans un texte bref de Chevillard
intitulé « Quelques observations faciles à vérifier », mars-mai 1995, le Nouveau Recueil, revue trimestrielle de
littérature et de critique : Toasts et tombeaux, sous la dir. de Jean-Michel Maulpoix.
109. Chevillard, Du hérisson, op. cit., p. 66 ; cit. ab Keyrouz, « Du hérisson de Chevillard », en. cit., p. 39.
110. Robert, « Le monde selon Crab », en. cit.
Page 226
Chapitre II — La spirale épineuse du Hérisson
l’œil implacable du dermatologue), de braquer enfin le projecteur sur ce
vieillissant espoir de nos Lettres pour mieux le cuisiner […] » 111.
Le détournement parodique des règles et des codes qui figent la pensée
contribue également à engendrer les postures de « hérissonnement » du langage
de ce globe naissant : « Ne m’avait-on pas appris en effet (et tapé sur les
doigts avec cette règle d’or) que l’accent circonflexe de cime était tombé dans
l’abîme ? » 112 ; « On finirait par me confondre avec mon douloureux secret et
jamais plus je ne pourrais le décoller de mon visage » 113.
Et ce n’est pas fini ! L’animal épineux ne se contente pas d’étendre ses
piquants et son appétit omnivore sur le langage, il impose son cri, sa langue,
dévore littéralement les pages :
« ruiiiiiii ou grouiiiiiii , quand mon coude le heurte brutalement — ça
alors ! vous avez entendu ? Mon hérisson naïf et globuleux a produit un son
autre qu’un reniflement morveux ! Faut-il appeler cela un couinement ? un
glapissement ? A-t-il essayé de formuler une phrase de protestation cohérente
et bien frappée ? C’est raté. Je ne me moquerai pas, cela m’est arrivé. […]
S’il voulait bien recommencer, répéter plus lentement peut-être, mon hérisson
naïf et globuleux, je lui promets de lui prêter une oreille attentive. Je saurai
passer outre le petit défaut d’élocution que j’ai cru remarquer — non ? Une
légère propension à multiplier les i superfétatoires, m’a-t-il semblé. […] Il faudrait le réentendre, pour bien faire. […] Quelque chose l’avait heurté
ruiiiiii , c’est bien cela, c’était bien mon coude, quand mon coude le touche,
ça le heurte, mon hérisson naïf et globuleux qui est à peine plus pointu que
lui, et il pousse son cri ruiiiiii ou grouiiiiiii , difficile à dire. Or, j’écris comme
le crabe se déplace, latéralement, je suis réputé pour ça, le bras droit replié,
le crayon prisonnier de la pince des doigts, je vais vite ainsi, plus vite que sur
mes pieds, sans savoir où je me dirige […] » 114.
Le discours qui en résulte a une double portée. Premièrement, il révèle
davantage de gestes qui s’ajoutent aux figures et aux procédés sous-jacents
à la coexistence d’un modelage et d’une modulation plastiques sur le langage
permettant de façonner le globe en voie de « hérissonnement ». Deuxièmement,
il comporte une réflexion du narrateur sur sa propre écriture, qui fait naître
un « tourbillon » 115 de hérisson plein d’intensités et « d’énergie pure » 116 en
111. Chevillard, Du hérisson, op. cit., p. 127 – 128.
112. Ibid., p. 29.
113. Ibid., p. 107. Le « douloureux secret » renvoie au poème de Baudelaire intitulé « La vie antérieure »
(les Fleurs du Mal, 1857) : « Qui me rafraîchissent le front avec des palmes / Et dont l’unique soin était d’approfondir / Le secret douloureux qui me faisait languir ».
114. Ibid., p. 157 – 158.
115. Ibid., p. 131.
116. Leplâtre, « Douze questions à Éric Chevillard », en. cit.
2 — Agencements épineux et métastabilité : la
plasticité d’une spirale
Page 227
suivant les mouvements du crabe, ce qui peut être conçu comme un basculement dans un monde permettant la création à partir des états les plus
instables.
Cependant, ce basculement n’est pas identique à la transgression des
frontières d’une identité figée pour laisser place à une écriture obsessionnelle, à une cosmogonie verbale centrée sur un discours psycho-pathologique développé autour de l’obsession idéative incarné par l’animal. Ce que
nous percevons plutôt est que les agencements dynamiques et instables (omnivores, piquants et globuleux), qui se développent dans les replis et les dépliements des séquences suivant les gestes de contraction et de décontraction du hérisson, créent un ordre en forme de spirale. Celle-ci est générée au
sein d’un travail plastique sur le texte (mais pas seulement comme on va le
voir dans ce qui suit), qui conjugue les piquants de l’animal, la brosse du ramoneur et le projectile du mortier, un travail qui favorise le fonctionnement
opérationnel de la spirale.
b
Autoportrait en hérisson
Le narrateur-écrivain est également happé par cette spirale qui émerge
comme une bonne forme (et non pas comme un devenir spirale !) dans l’activité de perturbation effectuée par l’omniprésence de l’animal. En réponse
à celle-ci, la spirale ne cesse de produire de « l’information » suivant ses
propres signaux. La manière dont le narrateur lutte contre l’intrusion faite
par le hérisson naïf et globuleux, tout en mettant en scène dans chaque séquence sa nature encombrante, signale qu’il adopte la posture de cette boule
de piquants, qu’il évolue avec les replis et les dépliements des séquences :
« Ce hérisson naïf et globuleux, cette glu, plus crampon que l’odeur du poisson, va bientôt se prendre pour ma muse, pour Pégase / eh bien non ! Ce
galop ne me tente pas ! » 117 , « Ainsi il s’emploierait désormais à combler les
blancs ou les lacunes de mes phrases, à la fois pour y disparaître modestement et pour en assurer généreusement la cohérence et la correction ? […]
Je dois réussir à oublier et à faire oublier la présence du hérisson naïf et
globuleux » 118.
Mais qui est ce narrateur-écrivain ? Comme dans la plupart des livres
de Chevillard, il s’agit d’un narrateur qui est « tourné vers le travail de la
création » 119 et qui proteste « contre tous les discours normalisateurs produits par la société » 120 . Dans Du hérisson ce phénomène se dessine au sein
117. Chevillard, Du hérisson, op. cit., p. 40.
118. Ibid., p. 68.
119. Bessard-Banquy, « Moi, je, pas tellement », en. cit., p. 35.
Page 228
Chapitre II — La spirale épineuse du Hérisson
d’une logique de la négation. Cela se traduit, d’un côté, par une écriture
négative qui consiste à alimenter le feu de la cheminée avec de vieux manuscrits et qui a comme outil principal la gomme, objet de résistance contre « le
prêt-à-penser » 121 : « Récupérer ma gomme, n’est-ce pas, d’une certaine façon,
revenir de ma confusion, retrouver ma maîtrise de la langue ? » 122 . De l’autre
côté, cette logique de la négation se dévoile dans les traits de caractère de
ce personnage, qui incarne « un sujet proprement anti-autobiographique » 123
suscitant le rire chez le lecteur : « il est par excellence celui qu’on ne voit pas,
qu’on ne distingue pas bien dans la masse, qui “rêvait d’être invisible”, un
homme qui “n’est pas de ceux qui s’exhibent”, bref un sujet qui constitue
d’emblée un véritable défi à l’entreprise autobiographique, un non-sujet en
quelque sorte » 124.
La création de ce narrateur-écrivain « quasi-fantomatique » 125 , « menu
frêle, très peu consistant, qui ne possède ni un acte de naissance, ni une
fonction, ni un caractère » 126 , passe par la déviation de « toute donnée afin
d’empêcher une saisie plénière » 127 de son identité. Cette manière de procéder comporte des brouillages temporels et toutes sortes d’amalgames nourris par la contradiction et la négation. Liliane Keyrouz souligne par exemple
les « fausses indications sur la datation des faits » 128 :
«“Pour une fois que j’envisageais d’écrire de façon plus confidentielle,
d’évoquer des souvenirs personnels, et par exemple cette période de liberté
sexuelle effrénée qui s’ouvrit en 1968 et prit fin justement le jour où j’atteignais
moi-même l’âge de la puberté en me frottant les mains, voici qu’un hérisson
naïf et globuleux vient parasiter ma confession déchirante.”
“Agenda 1984, j’avais vingt ans. […] Sur une page presqu’entièrement
carbonisée, je déchiffre encore : Au café cet après-midi, Militrissa bâille en
m’écoutant parler qu’est-ce que ce serait dans un lit ! J’avais vingt ans et toute
la vie devant moi pour regretter de n’avoir plus vingt ans.”
“Commencer par ma venue au monde, quelques semaines avant que Gaston Chaissac ne le quitte, dans un lit voisin du même hôpital.”
Ainsi, si le narrateur avait entre dix et douze ans en 1968, il devrait en
avoir vingt-six ou vingt-huit en 1984, et non vingt. Par ailleurs, il ne peut pas
120. Bayard, « Pour une nouvelle littérature comparée », en. cit., p. 100.
121. Bessard-Banquy, « Moi, je, pas tellement », en. cit., p. 37.
122. Chevillard, Du hérisson, op. cit., p. 112.
123. Cousseau, « Lecture, jeu et autobiographie dans Du hérisson d’Éric Chevillard », en. cit., p. 238.
124. Ibid., souligné par moi-même, citant des passages Chevillard, Du hérisson, op. cit., p. 17.
125. Keyrouz, « Du hérisson de Chevillard », en. cit., p. 35.
126. Ibid.
127. Ibid.
128. Ibid.
2 — Agencements épineux et métastabilité : la
plasticité d’une spirale
Page 229
être né l’année où Gaston Chaissac est mort, puisque ce dernier est décédé en
1964 ; si c’est le cas, il ne serait pas pubère en 1968 » 129.
Effectivement, tous ces paramètres circonscrivent un personnage chevillardien qui effectue un véritable travail de contestation, mais ce qui est
particulièrement intéressant, du point de vue de notre approche, est que ce
narrateur-écrivain contribue à la constitution de la spirale hérissonneuse,
à la production de ses formes non-standards. Cela est perceptible au niveau des mouvements de clôture et d’ouverture qu’il effectue devant l’acte
de donner visage : semblable au hérisson-mortier, il prend la posture de l’attaque et de la défense, et, suivant « l’éthique du noli me tangere » 130 , se sert
du parasite afin de contester le genre autobiographique ; cependant, par le
même geste, il dresse son autoportrait en hérisson. Par ces mouvements, qui
constituent des gestes de modelage et de modulation plastiques sculptant,
façonnant la spirale, il produit des agencements épineux qui maintiennent
le fonctionnement métastable de celle-ci.
Cette pseudo-autobiographie — « Du hérisson qui paraît se substituer
à Vacuum extractor » 131 — est tissée dans un rapport de contiguïté entre
l’homme et l’animal, qui se forme au fur et à mesure que les séquences
en variance autour du hérisson s’assemblent. Ce raton hirsute et vicieux
devient, en fait, un trait inséparable de l’écrivain :
«Maintenant on me reconnaît grâce à mon hérisson naïf et globuleux.
Déjà on ne me reconnaît plus que grâce à mon hérisson naïf et globuleux. Y
compris mes plus vieux amis. Peu s’en faut que je ne sois l’homme au hérisson
naïf et globuleux » 132.
«En me relisant (amer plaisir, je devrais simultanément croquer du
sucre), il m’apparaît que j’écris de plus en plus souvent mon hérisson naïf et
globuleux comme s’il m’appartenait, comme s’il était à moi, comme si c’était
le mien » 133.
«Mon activité comme la sienne est nocturne, je ne vois pas au nom de
quoi je ne pourrais pas passer la journée en boule, pelotonné, hérissé de piquants affûtés, intouchable […] » 134.
129. Chevillard, Du hérisson, op. cit., p. 14, 78 et 90 resp. ; cit. ab ibid. (Les citations dans ce passage font
référence à l’édition de 2002.)
130. Ruffel, « Les romans d’Éric Chevillard sont très utiles », en. cit., p. 32. Noli me tangere qui veut
dire « ne me touche pas » est prononcé par Jésus, ressuscité le dimanche de Pâques, en s’adressant à MarieMadeleine. Cette scène est représentée par plusieurs grands artistes comme Giotto, Titien, le Corrège, Véronèse, etc.
131. Daniel, l’Art du récit chez Éric Chevillard, op. cit., p. 96.
132. Chevillard, Du hérisson, op. cit., p. 15.
133. Ibid., p. 28.
134. Ibid., p. 93.
Page 230
Chapitre II — La spirale épineuse du Hérisson
«Ce corps lui-même m’a surtout rappelé le mien, le corps de l’écrivain
[…]. Le hérisson naïf et globuleux chamoisé, apprécié des chasseurs et des gantiers, demeure le même animal farouche, reclus dans son intérieur, introverti
jusqu’à la nausée de soi » 135.
Évoluant avec la spirale hérissonneuse, le narrateur-écrivain active donc
son système de protection devant le dogmatisme de l’écriture de soi et à force
d’engendrer les contractions et les décontractions du texte, il développe un
rapport de réversibilité, d’enveloppement réciproque avec l’animal. L’espacehérisson ainsi créé ressemble à l’espace-chair 136 de Merleau-Ponty qui se
développe dans une structure d’échange du visible et du corps voyant, de
transitivité d’un corps à l’autre, « dans une correspondance de son dedans
et de mon dehors, de mon dedans et de son dehors » 137 . Le rapport de réversibilité qui se déploie entre le narrateur-écrivain et l’animal « trouve son
aboutissement dans les dernières pages, dans une sorte de fusion finale » 138 :
«Nous voilà tous les deux réfugiés dans sa boule, bouclés ensemble par
son puissant muscle orbiculaire. Mon hérisson naïf et globuleux est un hôte
charmant. Il me laisse son lit. Il dormira par terre, dans un coin. Vous êtes
chez vous, me dit-il. Et je dois avouer que tel est bien mon sentiment, je suis
enfin chez moi. Je reconnais mon intérieur. On n’y tient que voûté, mais je
n’ai pas eu à pousser beaucoup mon squelette sur cette pente » 139.
Ce jeu d’enchevêtrement crée une espèce de troisième lieu nourri par la
plénitude de l’entrelacement, mais aussi par la non-coïncidence, un écart
existant quand même entre ces deux entités :
«Il y a vision, toucher, quand un certain visible, un certain tangible
se retourne sur tout le visible, tout le tangible dont il fait partie, ou quand
soudain il s’en trouve entouré, ou quand, entre lui et eux, et par leur commerce, se forme une Visibilité, un Tangible en soi, qui n’appartiennent en
propre ni au corps comme fait ni au monde comme fait — comme sur deux
miroirs l’un devant l’autre naissent deux séries indéfinies d’images emboîtées
qui n’appartiennent vraiment à aucune des deux surfaces... » 140.
135. Ibid., p. 125.
136. Le concept de chair , élaboré par Merleau-Ponty, ne fait pas référence au sens habituel de tissus du
corps humain, car elle n’est ni matière, ni esprit, ni substance, elle correspond au contraire à un mélange du
corps vécu et du monde visible, pensés comme inséparables. L’ontologie de la chair pense donc le rapport entre
le voyant et le visible, non plus en termes de sujet-objet, mais en termes d’union ou de chiasme du moi et du
monde (cf. Merleau-Ponty, le Visible et l’invisible, op. cit. ; Pascal Dupond, le Vocabulaire de Merleau-Ponty,
2001).
137. Merleau-Ponty, le Visible et l’invisible, op. cit., p. 179.
138. Cousseau, « Lecture, jeu et autobiographie dans Du hérisson d’Éric Chevillard », en. cit., p. 240.
139. Chevillard, Du hérisson, op. cit., p. 219.
140. Merleau-Ponty, le Visible et l’invisible, op. cit., p. 180.
2 — Agencements épineux et métastabilité : la
plasticité d’une spirale
Page 231
Cet espace de fusion en décalé, qui permet le surgissement d’un « ersatz » 141 d’autoportrait en hérisson fondé sur une fermeture systématique
devant cette boule de piquants, mais qui toutefois se crée à travers l’ouverture à celle-ci, ne cesse de configurer la spirale en tant qu’unité systématiquement travaillée par une clôture opérationnelle . Celle-ci circonscrit un processus
autoproducteur se construisant à travers les agencements épineux ouverts
à la métastabilité de cet autoportrait en hérisson, permettant de maintenir le
double mouvement de modelage et de modulation plastiques de la spirale
en train de naître :
«[…] l’animal tel qu’en lui-même obstinément se perpétue, reconduisant
de génération en génération son système de survie sans bouleverser ses mœurs,
à quelques exceptions près
car il faut bien admettre que les naturalistes et les éthologues ne signalent pas
d’exemples de hérissons naïfs et globuleux choisissant pour territoire le bureau
d’un écrivain afin de l’empêcher d’écrire l’autobiographie que tout le monde
attend […] » 142.
«Je me blottis comme un enfant dans les bras de mon hérisson naïf et
globuleux, tendre comme une mère, fort comme un père. Cellule familiale
recomposée, un dimanche, volets clos. On ne bouge plus. Je décrirai le jardin
dans Vacuum extractor. […] » 143.
À travers cet autoportrait « hérissé de piquants affûtés », la spirale continue donc d’être perçue dans notre lecture au sein d’une dynamique autopoïétique.
c
Lecteur-hérisson
Le lecteur est à son tour pris dans cette spirale où, dans les interconnexions des séquences en variance, il a une fonction aussi active que celle
du hérisson. D’ailleurs, il surgit dans l’univers du livre en même temps que
celui-ci :
«Coïncidence
ou pas, en même temps que vous a surgi ce hérisson naïf et globuleux. S’il
est à vous, reprenez-le, je n’en veux pas. S’il s’agit d’un cadeau, je le refuse.
Très peu pour moi. Ne me plaît pas. Soudain vous voilà, et avec vous quoi ?
141. Daniel, l’Art du récit chez Éric Chevillard, op. cit., p. 96.
142. Chevillard, Du hérisson, op. cit., p. 215 – 216.
143. Ibid., p. 219 – 220.
Page 232
Chapitre II — La spirale épineuse du Hérisson
Ni fleurs, ni chocolats, et votre brouette de confitures a dû s’embourber ou se
renverser en chemin — avec vous quoi ? Ni le sac de plâtre ni le parpaing dont
l’homme a constamment besoin — avec vous quoi ? Ni vin ni liqueur
nulle douceur, au contraire, une bête mieux organisée pour la guerre et plus
redoutable qu’un essaim d’abeilles […] » 144.
En entraînant le lecteur dans ce texte-hérisson, l’auteur crée un effet de
vertige, un tournoiement, une déstabilisation totale. Comme nous l’avons
déjà remarqué, Tiphaine Samoyault parle d’un processus d’animalisation par
rapport au lecteur chevillardien : « S’animaliser pour le lecteur, lire en bête,
revient à se déplacer, mais lentement, à changer d’angle et d’optique. Son
effort doit être de faire en sorte que le monde ressemble au livre qu’il a sous
les yeux et non de chercher dans le livre les signes du monde » 145 . Ceci est
tout à fait valable pour le lecteur de Du hérisson qui se met en boule contre
tous les schémas interprétatifs, son point de référence n’est plus le monde
extérieur par rapport au livre, au contraire, il comprend le monde tout en
s’adonnant à cet univers animalier.
Mais, dans notre approche, il ne s’agit pas seulement pour le lecteur
d’évoluer avec cet espace de « tourbillon » hérissonneux qui se présente
comme « une relecture du monde » 146 , mais de contribuer à la configuration de la spirale évoluant au seuil du chaotique. Il est invité à cette tâche
par différents moyens. Tout d’abord, le narrateur lance un appel permanent
au lecteur pour l’attirer et puis l’introduire dans la machine à produire du
hérisson : « Vous voyez ce hérisson naïf et globuleux, on peut dire que sa
présence est agaçante, suprêmement pénible même » 147 , « Vous pouvez revenir ,
j’en ai fini avec le chapitre sportif » 148 , « En ce cas, je suis atteint de cette très
étrange et rare maladie mentale […] — voyez mon hérisson naïf et globuleux,
l’œil vif, la truffe humide, comme il se porte bien — » 149.
Ensuite, l’organisation du texte en séquences dont la fin ne correspond
point avec la fin des phrases, pousse irrésistiblementle lecteur à sauter sans
cesse dans le paragraphe suivant pour arriver au bout des phrases. Cela
crée un jeu paradoxal car son but est de « passer facilement sur le hérisson
naïf et globuleux » 150 afin de ne pas se laisser dévier dans la réception du
texte, qui met en scène justement l’omniprésence de cet animal. Il prend
144. Ibid., p. 11 – 12.
145. Samoyault, « Rendre bête », en. cit., p. 56.
146. Cousseau, « Lecture, jeu et autobiographie dans Du hérisson d’Éric Chevillard », en. cit., p. 241.
147. Chevillard, Du hérisson, op. cit., p. 46, souligné par moi-même, ainsi que les deux autres exemples qui
suivent.
148. Ibid., p. 44.
149. Ibid., p. 197.
150. Ibid., p. 71 ; cit. ab Cousseau, « Lecture, jeu et autobiographie dans Du hérisson d’Éric Chevillard »,
en. cit., p. 239.
2 — Agencements épineux et métastabilité : la
plasticité d’une spirale
Page 233
ainsi la posture du narrateur-écrivain et s’identifie au fur et à mesure aux
gestes répétitifs de clôture et d’ouverture des séquences. Il devient un lecteur-hérisson qui entre dans le texte et contribue au travail de modelage et
de modulation plastiques, donc à la formation de nouveaux agencements
épineux ouverts à un fonctionnement métastable.
Grâce au lecteur, ce fonctionnement, dont la spécificité est de faire valoir des potentiels cultivant d’innombrables fissures et extrapolations hérissonneuses, continue d’inscrire la spirale naissante dans un double mouvement « de détermination et de liberté » 151 , de fermeture et de malléabilité,
d’organisation et de structure 152 . Tel le système nerveux dont l’activité ressemble aux « “contours d’une carte à plusieurs dimensions” » 153 grâce à la
capacité de modulation plastique des synapses, ce texte ne cesse de se dévoiler comme un système « opérationnellement clos » 154 qui, dans ses replis
et ses dépliements systématiques, contourne l’homéostasie par des états
emplis de potentiels. Le lecteur-hérisson prend part activement dans l’engendrement de cette spirale :
«Ceux qui furent internes liront ce livre avec passion. Les demi-pensionnaires y prendront un certain plaisir, au moins la moitié d’entre eux, surtout
quand j’aborderai le chapitre des repas, du chou rouge dans des ramequins
jaunes, et le lendemain ? la même chose. Mais les externes s’emmerderont
tous sans exception. Aux externes, je ne recommanderai pas ce livre, ni aucun de mes livres d’ailleurs. Ce livre d’interne sera comme un hérisson naïf et
globuleux pour les externes
un livre hermétique, une lecture pénible. Ils ne pourront tout simplement
pas entrer dedans. Telle est la condition de l’externe, définitivement périphérique, mais celle de l’interne est sans issue. L’interne n’a plus de regard, n’a
plus de visage. Il ne porte pas de masque, au contraire : il a retrouvé la pièce
qui manquait au puzzle d’os de son crâne. Sa tête n’est pas moins ronde et
close que celle du hérisson naïf et globuleux. Tout se passe dedans. Il s’évade
par l’intérieur. Il creuse en lui un tunnel vers la sortie. Il se rend inaccessible.
Il se construit une forteresse dans la forteresse » 155.
151. Malabou, Que faire de notre cerveau ?, op. cit., p. 61.
152. Il s’agit ici de l’organisation et de la structure des systèmes vivants autopoïétiques.
153. Malabou cite Marc Jeannerod (la Nature de l’esprit, Sciences cognitives et cerveau, 2002, p. 21), cf. Malabou, Que faire de notre cerveau ?, op. cit., p. 98.
154. Varela, Autonomie et Connaissance, op. cit., p. 89.
155. Chevillard, Du hérisson, op. cit., p. 231 – 232.
Page 234
Chapitre II — La spirale épineuse du Hérisson
3
Vers une individuation rétractile
Nous avons perçu dans ce roman un véritable déplacement « de l’étude
des correspondances sémantiques vers celles des modèles structurels » 156.
Les éléments ne sont plus conditionnés par la réalité sémantique des symboles à propos de quelque chose 157 , autrement dit des symboles qui représentent
ce dont ils tiennent lieu, mais se retrouvent dans de nouvelles configurations, abordées sous l’angle du tissage, des relations, des résonances. Cela
fait naître toute une nouvelle formation « extraite du néant » 158 comme « le
globe terrestre » 159.
Le point de départ de cette formation est une boule de piquants qui surgit
inopinément sur la table de l’écrivain s’apprêtant à écrire sa grande autobiographie. L’omniprésence de cet animal conduit à un régime complexe de
répétition constitué de séquences qui se replient et se déplient, et dont la
spécificité est de faire naître une écriture traduisant les agencements nonstandards, pleins de piques d’une spirale hérissonneuse.
Ceux-ci naissent à travers un travail de modelage et de modulation plastiques au sein duquel se libèrent ce que je proposerai d’appeler des « matériaux métastables », c’est-à-dire des potentiels grâce auxquels la spirale se dote
d’une plasticité structurelle et s’adonne à un processus de « hérissonnement » :
elle devient omnivore, piquante et globuleuse. Tous ces agencements qui se
forment dans la dynamique des replis et des dépliements des séquences de
la spirale hérissonneuse se caractérisent par un comportement imprévisible,
ce qui ne signifie pas une transgression, mais plutôt un fonctionnement irréductible à un algorithme simple. Et ceci n’est pas seulement tangible au
niveau du texte et de l’écriture, le narrateur-écrivain et le lecteur sont également entraînés dans la spirale.
Celle-ci évoque l’Exposition 160 de M. C. Escher (1956, cf. illustration II.6),
156. Varela, Autonomie et Connaissance, op. cit., p. 12.
157. Varela, Thompson et Rosch, l’Inscription corporelle de l’esprit, op. cit., p. 76.
158. Chevillard, Du hérisson, op. cit., p. 119.
159. Ibid.
| 2,219
|
2011BESA1035_31
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,011
|
L'histoire vivante médiévale. Approche socio-anthropologique.
|
None
|
French
|
Spoken
| 7,697
| 11,230
|
Elle est active au cours des off, qui favorisent un regroupement des acteurs en dehors du public. Plusieurs informateurs déclarent ne participer qu'à des événements de ce type, parce qu'ils sont les seuls à permettre un entre-soi. L'immersion n'inclut que des membres reconnus du groupe qui ont souvent dû soumettre leurs costumes aux critiques des organisateurs, afin de respecter l’historicité souhaitée et énoncée dans les règlements. Les entretiens menés avec les organisateurs apportent des éléments explicites : « Ce qui est demandé est une tenue correcte pour la période envisagée, pas d’anachronismes flagrant sur les camps, l'utilisation de textiles et matériaux naturels, pas de GSM ni de cigarettes, dissimulation du plus possible d'objets du XXIe siècle, etc. », « Obligation de masquer tous les objets anachroniques par rapport à la période reconstituée, l’idéal étant de ne pas en avoir du tout. » « S'immerger » le temps d'un week-end consiste à laisser de côté un maximum d'objets contemporains, en particulier le matériel électronique (téléphones, ordinateurs, etc.), mais surtout de retrouver des amis, des connaissances ou de rencontrer de nouvelles personnes ayant toutes en commun une passion. Ce principe ne se retrouve pas dans les AMHE, qui n'évoquent jamais la notion d'immersion. Les reconstituteurs, en revanche, cherchent à être entre eux pour échanger leurs connaissances, savoir-faire et plus largement leurs visions du loisir dans un contexte privé, qui ne sera l'objet d'aucune perturbation extérieure. Tout se passe comme si le groupe des participants à un off vivait en autarcie le temps d'un week end. Seule la communauté des pratiquants est active, en dehors d'un ancrage dans la société plus large. De plus, l'immersion favorise l'apprentissage de nouvelles techniques qui viendront renforcer les connaissances quant à la période médiévale mais aussi renouveler le loisir à travers d'autres manières de faire. Les off sont l'occasion d'échanger à propos de la vie privée des individus et de passer de la simple connaissance d'un pseudonyme à l'instauration d'une identité de personne. Ce qui est n'est pas abordé dans les conversations via l'internet peut l'être lorsque les informateurs se rencontrent de visu. L'entre-soi favorise la libération de paroles et de discours, du point de vue tant technique que personnel. L'immersion engendre des interactions approfondies, qui conduisent à une identification individuelle forte aux valeurs dominantes. En d'autres termes, la fermeture d'un groupe sur lui-même le temps d'un week-end ressoude les frontières de la pratique à travers le partage d'enjeux communs. Ce qui est générateur de cohésion sont les amitiés qui se lient souvent au cours de ces rassemblements et forment un noyau solide pour la reproduction ultérieure de l'activité. Ainsi, l'immersion ne renvoie ni à une volonté de « vivre comme au MoyenÂge », ni à un rejet du monde moderne, mais à une envie de se retrouver entre individus animés de la même passion. L'importance accordée aux off se comprend en fonction de la possibilité offerte à la communauté de se positionner comme un groupe susceptible d'autogestion. La mise à l’écart du public aide à réactiver les échanges entre participants et à renouveler des approches qui seront susceptibles d'être réutilisées en animation. Un enquêté énonce clairement ce point : « Je voulais aussi aborder la question de l'immersion, de la reconstitution sociale et des mentalités. J'y adhère assez peu, sauf dans un cadre extrêmement limité dans le temps, et dans un contexte minutieusement préparé. Recréer un bol ou une paire de chaussure est déjà compliqué, mais redonner vie de façon cohérente à des pratiques sociales, des gestuelles, voire des langages, me semble utopique [...] La reconstitution est donc pour moi avant tout matérielle. Que je sois habillé en paysan, en évêque ou en guerrier musulman, je demeure moi-même et ne prétends pas devenir un autre, il n'y a aucune projection. Les personnages que je reconstitue sont des agrégats matériels qui illustrent une catégorie sociale, rien de plus. » Les objectifs possibles à atteindre sont soulignés : ce sont des règles que l'ensemble des participants acceptent. Il 543 - s'agit de reconstituer une culture matérielle et non un état d'esprit. La distinction avec des activités proches (jeux de rôle, etc.) trouve ici son point de référence. Compte tenu de la manière dont se présente l'immersion, une distinction peut être opérée entre ce qui relève de la communauté, groupe restreint, divisé en fonction de la reconstitution ou des AMHE, et ce qui fait référence à la société, ensemble plus global au sein duquel prend place l'histoire vivante. « Distinction formulée par Ferdinand Tönnies (1887) entre la Gemeinschaft (communauté), où les individus se fondent en totalité, et la Gesellschaft (société), où ce sont les intérêts personnels qui orientent les conduites ou les comportements. »750 Cette définition permet de placer l'objet d'étude davantage du côté de la communauté. En effet, c'est d'abord un terme qui est souvent employé par les enquêtés, en particulier pour les AMHE : « La communauté AMHE », qui fait référence à l'ensemble des associations reconnues (par les habitués) comme faisant des arts martiaux de ce type. Par ailleurs, les frontières de la pratique, instituées par le langage par exemple, mettent de côté ceux qui n'en font pas partie, les playmobils. C'est une unité de démarche qui est créée de cette manière et qui relie tous les individus par un souhait commun : le respect de l'historicité. La notion de responsabilité commune accentue l’importance prise par les intérêts du groupe. Lorsqu'une association fournit une image négative de l'activité (en termes pédagogiques ou historiques), c'est l'ensemble du groupe qui est pénalisé parce que l'image donnée de la démarche est « fausse ». « Nous avons une responsabilité les uns envers les autres », « Chacun reflète l’image de sa compagnie. » Il en est de même pour les rapports de blessures, qui servent d'avertissement à l'ensemble des initiés. Ainsi, le principe de la communauté est opérant pour l'histoire vivante, qui voit ses membres se sentir responsables des actions de chacun. C'est l'ensemble de l'approche qui est en jeu dans les démarches individuelles et, pour cette raison, la sanction et la délimitation des frontières occupent une place primordiale. Le fonctionnement sur le mode communautaire permet en outre de réactiver l'entre-soi qui agit comme un garant de la perpétuation de cette approche médiévale : l'envie de se retrouver entre pairs, ayant un loisir et une passion en commun, invite les individus à se fondre dans l'identité du groupe. Il n'est cependant pas exclu que des intérêts individuels sclérosent l'ensemble ; ce fait se ressent lorsque des dissensions entre troupes ou individus deviennent publiques. Pour autant, les problèmes se règlent soit en privé, soit d'une manière conforme aux normes de 750 Gilles Ferréol (sous la dir. de) (2002), Dictionnaire de sociologie, op. cit., p. 21. 544 - la communauté. Par exemple, des oppositions quant à la réalisation d'un costume se verront parfois minimisées dès qu'une source primaire, pour défendre l'une ou l'autre position, aura été proposée. D’autres points qui exposent l'entre-soi sont les motivations des reconstituteurs, recueillies au cours des entretiens. Ce qui est essentiel, ce sont les rencontres avec d'autres passionnés, comme la possibilité offerte de s'essayer à divers savoir-faire. Ces réponses font écho à ce qui a pu être analysé d'après les questionnaires. La notion de « dépaysement » est souvent énoncée, mais j'y reviendrai ultérieurement. En revanche, d'autres traits apparaissent qui éclairent l'attachement porté au groupe. L'objectif de certains rassemblements est que « tout le monde se connaisse », pour encourager les échanges. Des reconstituteurs expliquent l'importance prise par le « plaisir de rencontrer des personnes ayant les mêmes centres d'intérêts que moi », « l'envie d'être avec des gens aussi malades ! », ou encore la place de cette « activité qui fait évoluer et qui apprend à se remettre en question ». C'est aussi une « question de liberté, qui est à vivre pleinement » et une occasion d'aller « voir les copains ». Parmi d'autres objectifs, l'une des finalités de la pratique est de pouvoir retrouver des personnes appartenant à la même communauté. Les intérêts communs sont soulignés puisqu’ils permettent aux enquêtés de ne pas demeurer isolés mais de pouvoir partager avec d'autres. Se sentir appartenir à un même groupe, ayant des valeurs communes à celles développées individuellement, forme une trame de fond des raisons qui poussent les informateurs à pratiquer. L'entre-soi et le resserrement communautaire sont nécessaires parce qu'ils réactivent les échanges et rappellent que ce loisir ne prend place qu'avec autrui : il ne peut être opérant de manière solitaire. C'est une sorte d'émulation qui est recherchée, afin de perfectionner les exercices au niveau personnel et de perpétuer la démarche au niveau de groupe. Un autre trait qui est caractéristique de l'attachement au groupe est l'usage fait du pronom personnel pluriel par les pratiquants. Le « nous » désigne souvent l'ensemble global des initiés, et des dialogues qui pourraient faire uniquement référence à un individu sont souvent énoncés à travers l'usage du pluriel : « Nous restons des personnes du XXIe siècle », « Nous avons besoin des artisans pour notre loisir », « Nous devons nous contenter de partager un acquis culturel ». Ce « nous » est parfois remplacé par le pronom indéfini « on » qui met en avant le principe de rattachement à un ensemble plus vaste, mais de façon plus informelle : « On partage. » Au-delà des spécificités propres de chacun 545 - (artisans, professionnels, organisateurs, etc.), c'est l’appartenance à un même ensemble qui est instaurée à travers la manière de s'exprimer et d'employer des pronoms qui ne font pas référence uniquement à soi-même. À titre d'exemple, un organisateur, nécessairement axé sur la transmission au public, expose son incompréhension par rapport aux camps off. Cette citation, déjà exposée par ailleurs, est reprise afin de porter une attention particulière aux termes employés : « Je suis toujours un peu surpris par ces camps privés où ils se font plaisir entre eux.... Nous, ce qui nous importe ici, c'est une diffusion de la connaissance. » Une distinction est opérée, sous forme de mise à l'écart, entre le « je » organisateur, le « nous » comme ensemble global de la structure organisatrice, et le « ils », c'est-à-dire les reconstituteurs qui participent à des rassemblements sans public. Cette dissociation n'est pas effectuée par les autres enquêtés, mais elle présente les manières dont les frontières entre « nous » et les « autres » se dessinent. Ces derniers peuvent être des pratiquants, membres du groupe mais avec une démarche différente, comme des personnes faisant partie du « hors-groupe » et positionnées à l'extérieur des frontières en fonction de la nomination qui est leur est attribuée. Par ailleurs, les individus qui font de la reconstitution depuis de nombreuses années évoquent le fait qu'ils finissent par connaître une grande partie des membres du groupe, y compris dans les AMHE : « Je connais beaucoup de monde... Il semble toutefois que l'utilisation du langage et des pronoms-sujets pour signifier son appartenance au collectif soit moins opérante pour les AMHE. Si la « communauté AMHE » agit comme une référence identitaire importante, l’inscription individuelle en son sein se réalise moins spontanément. Ce sont les associations qui manifestent leur adhésion à cette communauté : leurs membres doivent d'abord être identifiés en lien avec une structure plus réduite (un groupe reconnu) avant d'appartenir à un ensemble plus global au niveau national. Cependant, l'entre-soi se laisse deviner pour les AMHE à travers les consensus énoncés. « Dijon » est, à cet égard, perçu comme un événement majeur en France, il est cité par presque tous les présidents d'associations comme une référence dans la transmission des AMHE. Il est intéressant de noter que ceux qui ne mentionnent pas 546 - cette manifestation, sont souvent les groupes les plus jeunes, ceux qui ne font partie de la communauté que depuis peu de temps (moins d'un an). Ils n'ont pas encore acquis tous les codes leur permettant de comprendre les valeurs mises en avant par les autres. La reconnaissance en tant que membre se réalise peu à peu, avec l’intégration des normes propres à l'ensemble des participants. Une autre façon de comprendre le resserrement communautaire a été de prendre en compte les retours que certains ont pu effectuer, relativement à quelques articles parus concernant ma recherche. Leurs commentaires et conseils font apparaître plusieurs points : d'abord, ils me reconnaissent comme faisant partie du groupe et se retrouvent dans ce qui est écrit. Ensuite, ils ont une volonté affirmée de prendre part à l'étude et se font, souvent inconsciemment, les porte-paroles de l'ensemble des participants, en relevant certains points qui leur semblent essentiels. Enfin, généralement, tous les enquêtés que j'ai pu revoir sur différents terrains ont demandé des résultats, signe qu'ils s’interrogent sur leur démarche et sur l'image que donne la communauté d'elle-même à l'extérieur. Pourtant, la mobilisation d'un entre-soi peut conduire à donner une image de la pratique en dehors de ce qu'elle souhaite représenter. Le risque est d'exposer une vision close des activités, qui n'apparaissent pas accessibles à tous. Se retrouve le problème déjà soulevé de l'élitisme. Le responsable du Festival souligne ce point : les politiques ne comprennent pas l'image véhiculée par son rassemblement, par rapport aux fêtes médiévales par exemple. La volonté de ne pas transformer l'événement en un « parc Astérix », selon les mots de l'organisateur, ne fait pas sens pour les collectivités territoriales, qui s'attachent avant tout à l'aspect commercial de la manifestation et lui cherchent des solutions en termes de fréquentation. Au final, le faible nombre de visiteurs est réutilisé par les détracteurs de l'histoire vivante pour la positionner du côté d'une démarche élitiste destinée à quelques privilégiés. Or, les caractéristiques mêmes de l’approche, mettant en avant la transmission, sont aux antipodes de cette manière de concevoir l'action, même si parfois, le repli de la communauté sur elle-même laisse cette impression et fournit une représentation sociale de fermeture. Cependant, l'entre-soi revendiqué par les participants n'est pas exclusif : il s'accorde avec la diffusion culturelle aux non-initiés. Le fait que les membres du groupe soient fortement diplômés peut, de même, concourir à confirmer l'aspect élitiste. Mais le diplôme possédé n'étant pas un facteur qui autorise ou refuse l'appartenance à la communauté, il ne suffit pas à positionner les activités comme étant réservées à quelques individus. L'élitisme n'apparaît pas comme une manière effective et reconnue de faire de l'histoire vivante. C'est un principe employé par ceux qui sont extérieurs à la démarche et qui l'utilisent pour modifier les frontières de la reconstitution ou des AMHE, en les repositionnant du côté d'une pratique close sur elle-même. La volonté explicite de l'organisateur du Festival était de sensibiliser un maximum de visiteurs à l'attrait d'une manifestation de ce type, sous l'angle culturel et pédagogique. L'entre-soi, s'il est significatif de la pratique et d'une envie commune au groupe, n'en est pas pour autant une façon de fermer les frontières, mais davantage de les réactiver en permettant de retrouver, de manière individuelle, les normes et valeurs propres de la démarche. C. Des fractures possibles
?
Faisant écho à la mise en avant de l'entre-soi, des fractures dans la cohésion du groupe peuvent être relevées, divisées selon deux axes : des ruptures imposées de l'extérieur, comme des dissensions internes.
C.1. Une image modifiée de l'extérieur
Cela peut être une vision faussée donnée de la pratique par ceux qui n'en font pas partie. C'est l'ensemble des interrogations portées sur le revivalisme et les actions qualifiées de « néo-médiévales ». Le rapport aux pratiques traditionnelles (arts martiaux, activités physiques comme la soule, etc.) pose la question de la signification sociale de ces intérêts. « On peut sans doute voir dans les revivalismes privés (par opposition à ceux "municipalisés") une certaine forme de cohésion sociale dans laquelle est toujours favorisé l'engagement physique [...]. Finalement, il y aurait du partage social dans la soule, et son revivalisme pourrait être interprété comme une tentative pour recréer des formes communautaires disparues ou peut-être moins répandues. »751 Le revivalisme pourrait être actif pour l'objet étudié dans une optique de réaffirmation communautaire, quant à des enjeux communs. Pourtant, celui-ci est défini comme étant une « résurgence d'un mouvement, d'une mode, d'une coutume, d'un style, d'un état d'esprit anciens »752. D'un point de vue technique, l'histoire vivante ne semble pas correspondre à ces critères : elle ne cherche pas à remettre « au goût du jour » ni un mouvement, ni un état d'esprit, mais elle vise simplement à re-constituer des manières de faire. 751
Jean-François Loudcher (2009) « Les représentations corporelles dans le jeu de soule : de l'activité historique au fait anthropologique et touristique », op. cit., pp. 47-48. 752 Cf. Le Larousse, par exemple, entrée « Revivalisme ». 548 - Plus particulièrement, le jeu de soule qui prend place au cœur de l'histoire vivante, essentiellement lors des off, implique nécessairement une dimension historique. Il est pratiqué parce qu'attesté au Moyen-Âge. Pourtant, il ne fait pas l'objet d'une attention spécifique : c'est avant tout un moyen de se distraire, de se dépenser physiquement lors d'un camp, davantage qu'une réelle volonté d'associer soule et patrimonialisation. Cette conception est exposée par Laurent Fournier, pour le jeu en dehors de la reconstitution : « La pratique elle-même est décrite par les passionnés du Moyen-Âge, donnée à analyser par les historiens des jeux et de l’éducation physique, et ainsi très régulièrement référée au passé. Cependant, l’absence d’une continuité réelle et d’une mémoire associées aux formes historiques du jeu rend la revendication de continuité purement conjecturale. »753 Conçue comme un moment fédérateur, la soule renvoie davantage à un renouvellement de la cohésion qu'à une recherche d'« authenticité ». « À la différence de nombreux phénomènes de relance culturelle, les acteurs investis dans le jeu de la soule n’orientent jamais leur discours vers la recherche d’une prétendue authenticité, ni vers l’idée d’une pureté à reconquérir, ni même vers celle d’une identité ou d’un patrimoine à conserver. Au contraire, les responsables de l’association mettent en avant en priorité le fait de "se défouler" et de "faire la fête". »754 S'expliquent alors les fonctions de la soule en dehors d'une action patrimoniale, ce fait étant renforcé par la non-exposition du jeu lors de manifestations publiques. « La pratique est vécue sur un mode purement ludique et gratuit ; elle constitue ainsi un exemple typique de situation "a-patrimoniale", voire "antipatrimoniale". »755 Il est ainsi question d'une « pratique hybride, paradoxale puisqu’elle utilise un jeu ancien pour proposer du nouveau, la soule constitue ainsi un mode de revivalisme original qui parvient à se passer de toute référence explicite au patrimoine »756. Elle n'est en effet pas pratiquée par les reconstituteurs d'après des critères historiques, mais selon une envie de se « défouler », dans un contexte qui fait référence à la période médiévale. Certains traits propres aux revivalisme des jeux se retrouvent donc dans les activités des reconstituteurs. Le sentiment de « revival », en dehors de son rôle de cohésion sociale, est-il opérant pour l'histoire vivante ? L'attrait croissant pour le Moyen-Âge, sous toutes ses formes, instaure cette dimension de recherche d'un passé réadapté à un « renouveau » moderne. « Il est 753 Laurent Sébastien Fournier (2009), « Le jeu de "soule" en France aujourd'hui : un revivalisme sans
patrimonialisation », Ethnologie française, vol. 39, n° 3, juillet-septembre, p. 473. 754 Ibid., p. 474. 755 Ibid., p. 478. 756 Ibid. - difficile de ne pas voir dans ce retour du médiéval un lien avec la crise majeure qui se profile à l’extrême fin des années 1960 et éclate en 1973 (avec l’explosion du prix du pétrole). Surtout, le deuxième choc pétrolier (1979) a atteint plus directement les catégories socioprofessionnelles plus élevées (et "cultivées"), qui avaient été épargnées par la crise sociale née du premier choc pétrolier (chômage de masse dans le monde ouvrier), et qui sont traditionnellement des catégories sociales plus conservatrices. Et comme dans le même temps, la croyance (à gauche) dans un avenir nouveau s’est largement émoussée dans les années 80, le Moyen-Âge est ainsi devenu, irrationnellement, le symbole d’un "monde que nous avons perdu" et que l’on voudrait retrouver plutôt que de chercher à en inventer un autre qui soit meilleur. »757 L’intérêt de l'ensemble de la société occidentale pour la période médiévale trouve une explication relative à un phénomène de ré-écriture du passé, à des fins politiques ou simplement commerciales, comme en témoigne la multiplication sans cesse croissante des films abordant et mettant en scène cette époque, de manière souvent imaginaire. Le revivalisme semble lié à l’imaginaire médiéval, davantage qu'à son histoire effective. « Dans tous les cas, en Occident comme ailleurs, on observe aisément que le médiévalisme est corollaire de poussées d’irrationalismes identitaires, qui se cristallisent sur le nationalisme et sur les formes religieuses les plus traditionnelles [...]. Il est donc certainement erroné de considérer que la vogue du médiévalisme qui touche actuellement l’Occident et, en l’occurrence, la France, n’est qu’un épiphénomène du goût pour l’exotisme. L’idée du Moyen-Âge n’est pas, dans nos sociétés occidentales, l’idée d’une société exotique comme une autre : elle sert de contre-modèle à tout ce que la société occidentale est censée incarner. La vogue actuelle du médiévalisme est donc bien plutôt un signe de la profonde dégradation des représentations sociales occidentales, et elle en est en même temps un catalyseur en ce sens qu’elle contribue à en amplifier les effets délétères. En ce sens, on peut donc considérer que cette vogue n’est pas seulement un symptôme mais une véritable pathologie sociale, qu’on pourrait qualifier de "médiévalgie"... Pourtant, si le rapport aux ancêtres et à la mémoire est opérant pour l'histoire vivante, le terrain mené a pu révéler qu'il n'est jamais question d'une réappropriation identitaire détournée. op. cit., p. 58. 758 Ibid., pp. 60-61. 550
- pour faire office de mise en garde : l'appropriation de la reconstitution par des groupes politiquement orientés est possible, mais elle n'est pas le fait des membres reconnus. En d'autres termes, la recherche de « racines » traditionnelles dans une optique identitaire, voire nationale, n'est pas l'objet de l'histoire vivante. Au contraire, la particularité de la démarche se réalise à travers d'autres normes : la transmission de connaissances, le partage de savoir-faire, etc. L'attrait du « renouveau » concernant le Moyen-Âge ne fait pas sens pour les enquêtés. En effet, leurs objectifs ne sont pas de présenter de nouvelles manières d'appréhender la période médiévale dans son contenu, mais dans sa forme. Si l'histoire vivante peut être rattachée au mouvement revivaliste, c'est dans la tournure prise par la diffusion des connaissances et non par leur contenu. Le concept de « médiévalisme » évoqué précédemment fait en partie référence à l’engouement pour les fêtes médiévales et par extension, à l'imaginaire quant à cette époque. Cette façon de re-présenter le MoyenÂge, de le réadapter à un monde moderne et à des enjeux économiques (il s'agit d'attirer un maximum de visiteurs et la période historique choisie n'est qu'un prétexte à la fête) ne fait pas sens pour les informateurs, qui veulent au contraire lutter contre ces festivités. L'utilisation du Moyen-Âge à des fins détournées, qu’elles soient politiques, commerciales ou scientifiques est précisément ce contre quoi cherche à s'imposer l'histoire vivante. L’enjeu est de replacer le « médiéval » dans sa vérité, en dehors des réactivations traditionnelles et traditionalistes qui peuvent en être faites : « Il ne s’agit pas de faire reconnaître la grandeur du Moyen-Âge et donc, par rebond, la nôtre : il s’agit de "regarder en face" notre passé, non pas comme un "lointain miroir" qui nous renvoie notre image, mais comme une contribution à la connaissance de la transformation des sociétés. »759 Le revivalisme au sein de l’histoire vivante doit être compris comme une volonté de remettre au goût du jour une vision historique du Moyen-Âge, en opposition à une optique fantasmée de cette période. Le renouveau se situe à ce niveau : une nouvelle manière d'exposer l'histoire, en dehors de ce qui fait habituellement consensus. Le principe du revival se comprend, en lien avec la reconstitution et les AMHE, comme une méthode de transmission et un attachement à une exposition « scientifique », loin des clichés de ce que pouvait être l'époque médiévale. 759 Ibid., p. 62. 551 - Pourtant, il est possible de questionner l'ancrage identitaire qui peut être avancé concernant les AMHE. Ceux-ci se définissent, en effet, par opposition aux pratiques martiales orientales, instaurant de fait une identité occidentale dans la démarche. Si la reconstitution comprend des présentations d'autres régions (reconstitutions mongole, byzantine, syrienne, etc.), les AMHE ne s'attachent qu'aux techniques délimitées dans l'espace européen. Ce renouveau dans l'approche des activités martiales s'inscrit clairement dans une logique identitaire. Cependant, les observations menées ont permis de souligner que cette circonscription à un espace européen ne fait pas sens pour elle-même mais en opposition aux arts martiaux asiatiques. Les pratiquants d'AMHE ne mettent pas particulièrement en avant une identité européenne, si ce n'est pour se distinguer des arts martiaux habituellement entendus comme orientaux. L'usage du terme « européen » doit se comprendre par opposition à un autre : il permet de délimiter les frontières des AMHE, sans pour autant s'inscrire comme une revendication identitaire forte. L'objectif est davantage de définir précisément la démarche que de s'octroyer une identité européenne. Un autre point qui peut être susceptible de modifier l'image exposée est l'entre-soi poussé à son extrême et analysé sous l'angle d'une logique de bande760. Pouvant être rattaché à l'élitisme perçu par ceux qui ne font pas partie du groupe, le fonctionnement selon un principe de clan fermé est parfois énoncé par les informateurs. La reproduction de l’ensemble se réalisant après acceptation des nouveaux membres au sein de la communauté, l'impression d'un « en dedans » qui ne change pas est perceptible. Les « anciens » sont présents et actifs depuis plusieurs années et demeurent des référents pour les « nouveaux ». Ce principe peut amener à considérer l'expérience comme laissant peu de place aux innovations, nécessairement soumises à validation par les pairs. Cependant, cette manière de procéder n'interdit pas les transformations : l'histoire vivante étant plurielle, il est possible pour un individu, par exemple rejeté sur un forum, de prendre part à un autre espace de discussion. Ceci tend à montrer que les « anciens » le sont surtout via l'internet et certains cyberespaces particuliers. Ils n'ont pas une étendue d'action particulièrement importante. Si l’acceptation par la communauté s'avère nécessaire pour prendre part à certaines manifestations, elle peut se réaliser selon plusieurs entrées : espaces numériques, rassemblements, etc., et différents espaces géographiques. En outre, le concept de clan 760 Encore une fois, merci à Pierre-Alexandre Chaize pour les discussions que nous avons pu avoir et qui ont permis de faire ressortir certains points à souligner. 552 - fermé ne se révèle pas opérant en dehors des off ou des stages, destinés uniquement aux pratiquants. Dès que le public est présent, le principe même de l'entre-soi n'est plus effectif. Ces notions, de revivalisme et de « clan », sont surtout employées par ceux qui ne font pas partie du groupe. L'image de la pratique est transformée de l'extérieur. Les enquêtés font peu, voire pas du tout, mention de ces fractures comme un risque pour leur démarche. En revanche, des dissensions apparaissent au cœur même de la communauté, si activement instituée.
C.2. Des dissensions internes
Un écart géographique est présent, autant en reconstitution que pour les AMHE, entre la partie « nord » et la partie « sud » de la France. En effet, il existe une frontière, informelle et mal délimitée, entre l'histoire vivante telle qu'elle est pratiquée au « nord » et celle mise en place dans le « sud ». Ce fait est effectif selon plusieurs axes. Premièrement, dans les espaces numériques de discussions. Deux grands forums de reconstitution divisent les pratiquants en deux groupes, même si la participation aux deux structures est tout à fait possible. L'une s'adresse aux personnes du sud, tandis que l'autre regroupe davantage les initiés du nord, au sens large. Il n'y a pas d'affrontement direct et ouvert entre ces deux cyberespaces, mais l'adhésion de chaque individu à l'un ou l'autre se fait naturellement en fonction de son statut géographique. Pour autant, les annonces globales concernant le groupe sont diffusées sur les deux forums, et certains n’hésitent pas à prendre part simultanément aux échanges sur ces deux « lieux ». Ensuite, cette opposition nord-sud existe aussi à travers les rassemblements organisés par chaque « partie », en particulier les off et les stages d'AMHE. Malgré la capacité exprimée des enquêtés de parcourir plusieurs centaines de kilomètres pour prendre part à une manifestation, la majorité des événements ayant lieu dans le sud restent destinés à des pratiquants de cette région élargie. Il en est de même pour ceux qui sont effectués dans le nord. À titre d'exemple, certains informateurs n'ont été rencontrés qu'en un seul endroit : les reconstituteurs « du sud » n'ont pu être vus qu'aux éditions d'Opus Manuum, alors que d'autres individus, davantage situés au centre de la France, étaient présents en d'autres lieux. Pour autant, cette frontière géographique n'a pas constitué une barrière pour l'analyse, puisque les sollicitations par écrit, notamment, ne répondent pas à une barrière en termes de distance. Pour les AMHE, les stages organisés regroupent de la même manière 553 - les habitués selon leur ancrage territorial. L’éloignement ne forme pas un élément déterminant pour expliquer ce fait : la participation des enquêtés à des manifestations aussi éloignées de chez eux que ne l'est le sud invalide cette hypothèse, comme par exemple les stages organisés en Alsace. Les Rencontres internationales ne forment pas non plus un point de ralliement entre le nord et le sud, peu d'initiés venant du Midi, par exemple. Il semble que la localisation de chacun, davantage que la distance, constitue une identité quant à la pratique. En outre, le sud de la France a pour particularité d'englober une multiplicité de fêtes médiévales. Dès lors, l'histoire vivante trouve une partie de ses prestations sur ces événements, sans avoir besoin de se déplacer. Ce qui est en jeu est une conception de l'animation, qui diffère sensiblement entre les deux espaces. Les reconstituteurs du sud sont davantage présents sur les fêtes que ne le sont ceux du nord. Ils ont l'avantage du développement touristique de la région à la saison estivale, qui encourage les manifestations sur lesquelles peut s’exposer la reconstitution. Il est à noter que seul le Festival, en tant que manifestation publique, parvient à regrouper dans le même temps des associations du sud avec celles du nord, soulignant de ce fait la reconnaissance communautaire de l'événement. Ce dernier fait sens autant pour les pratiquants qui sont éloignés que pour ceux qui sont plus proches, géographiquement parlant. D'autre part, cette frontière nord/sud est ressentie par les rédacteurs en chef des magazines spécialisés, qui sont davantage lus « au Nord ». Ces professionnels exposent le fait que des particularités régionales se font ressentir pour ce qui est des ventes, liées au thème mis en avant. Si ce dernier correspond à une région en particulier (les Cathares par exemple), la revue se vendra mieux dans la région concernée. L’écart nord/sud existe pour l'histoire vivante, qui délimite deux entre-soi différents en fonction de l'appartenance géographique. Le repli sur la région, au sens élargi, ne s'explique pas uniquement à travers la distance, mais aussi en fonction des manières de pratiquer. Pourtant, si le « Sud » profite du tourisme estival, et si les forums regroupent des pratiquants en fonction de leur origine spatiale, les valeurs développées par la démarche demeurent les mêmes, comme en témoigne la participation de troupes de toute la France à Marle. D'autres dissensions sont toutes aussi importantes que la séparation géographique et touchent particulièrement aux distinctions recherchées par les individus. Ces dernières se 554 - retrouvent à plusieurs niveaux. Pour l'ensemble de la communauté, avoir participé à une édition du Festival montre publiquement la « qualité » de la troupe qui a été retenue par l'organisateur pour prendre part à l'événement. Avoir été « présent à Marle » agit comme une marque distinctive par rapport aux autres associations qui n'y ont pas été. Le Festival fonctionne comme une sanction positive, qui différencie ceux qui ont pu en faire partie et ceux qui ont été refusés. Cette participation effective permet un ancrage identitaire, une appartenance au groupe qui ne peut être remise en question. De ce point de vue, le Festival, mais également l'ensemble des manifestations organisées par le musée des Temps Barbares, jouent un rôle d'attribution identitaire. « Marle » est le garant d'une manière de faire conforme aux valeurs véhiculées par le groupe. « En avoir été » symbolise une reconnaissance communautaire. Pour les AMHE, la démonstration technique, en costumes, est l'objet d'une sorte de « fierté », relayée via les forums aux autres associations. La valeur distinctive de Marle agit donc en dehors de la reconstitution. Un autre trait distinctif, mais qui est effectif du côté de l'individu, est la conception des costumes et le statut social reconstitué. Le choix est laissé aux personnes de présenter le statut social de leur convenance. Ce principe est essentiel, il est considéré comme la base : le point de départ est la délimitation du type de costume souhaité. Cela peut faire référence à un « paysan », à un « noble », à un « bourgeois », un « artisan », etc. Cette sélection n'est pas anodine et renvoie à une manière de se donner à voir. Il est souvent énoncé par les informateurs que la représentativité historique n'est que rarement respectée : davantage de personnes décident de reconstituer une classe sociale élevée (au Moyen-Âge) et peu se contentent d'un costume « de base ». Ce choix implique une conception variée de la démarche, puisque les vêtements choisis pour leur visuel sont souvent plus difficiles à réaliser qu'une tenue paysanne. Cette orientation se comprend en raison d'une volonté de sortir des cadres contemporains et de ne pas reproduire le quotidien. Quelques enquêtés exposent cette idée : « Envie de changer de vie pendant quelques jours », « Sortir de l'usine ! », « Pour changer du quotidien », « Plein de jolis costumes », etc. Une recherche de distinction en termes de statut social est opérée, afin d'apporter un changement entre ce qui est reconstitué et la vie quotidienne. Les informateurs qui ont plusieurs costumes « riches » apportent un soin particulier à leur décoration et cherchent à s'opposer aux vêtements « pauvres ». Cela passe par l'utilisation de tissus particuliers (soie par exemple), d'ornements variés (broderie, etc.) et d'objets mis en valeur (bijoux, perles, etc.). « Ces activités, considérées comme socialement légitimantes par leurs acteurs, permettent à 555 - ceux-ci de sortir d'une condition sociale et professionnelle initiale, d'affirmer une appartenance locale tout en construisant une identité estimable de soi. »761 La différenciation voulue permet de montrer, par extension, le travail effectué : c'est ce dernier qui va conférer une valeur distinctive au propriétaire du costume. Le temps passé à la confection des tenues, c'est-à-dire le temps qu'il est possible de consacrer au loisir, fonctionne comme un moyen de montrer ses compétences techniques et son temps libre aux autres membres. Le choix du costume opère en outre une différenciation individuelle en fonction du coût de sa réalisation. C’est une distinction économique qui est en place. Choisir de reconstituer une tenue riche implique un budget plus conséquent que pour un vêtement simple. Ce qui est rapporté par les enquêtés, avec humour, est le fait qu'un costume de « riche » demande une participation financière importe, à l'heure actuelle comme au Moyen-Âge. En d'autres termes, décider de représenter une catégorie élevée réclame un engagement financier important. Pour cette raison, les « nouveaux » ont souvent pour conseil de commencer par une tenue de « paysan », terme générique pour définir une classe plutôt défavorisée pendant la période médiévale, qui demande un investissement financier moindre dans le loisir. Ceci se comprend surtout parce que les débutants n'ont pas toujours des compétences en couture et il est plus facile – et moins risqué – de s’exercer sur du lin ou de la laine que sur de la soie. Par ailleurs, la reconstitution porte aussi sur la tenue militaire, qui forme une part importante du budget : armure, armes, etc. Comme pour le choix du statut social, qui inclut des dépenses plus importantes à mesure que l'échelle croît, le siècle retenu pourra constituer une source de dépenses supplémentaires. Les armures de la fin du XVe siècle coûtent par exemple plus cher, actuellement, qu'une cotte de maille du XIe siècle. L'écart est plus prononcé pour l'équipement militaire, sous l'angle du budget, que pour les tenues civiles. Ainsi, schématiquement, choisir de reconstituer un noble du XIVe siècle, en civil et en militaire, demandera des dépenses beaucoup plus importantes que de recréer un costume, y compris militaire, du Xe. Les préférences en termes de statut et d'époque sont 761 Maryline Crivello (2004), « La geste des temps », op. cit., p. 63. 556 - distinctives du point de vue financier, pour mener à bien la reconstitution envisagée. Par extension, les enquêtés qui pratiquent en famille décident souvent de coudre des costumes peu riches, puisqu'il faut vêtir non plus une personne, mais plusieurs. Les concessions qui peuvent parfois être faites pour créer un costume riche, pour un individu, ne peuvent pas toujours être activées pour une famille. Le coût induit par le loisir peut être réduit au maximum, et n'être que peu élevé, mais il agit comme un facteur distinctif entre les initiés, même si le phénomène n'est jamais évoqué et probablement peu ressenti. L'importance prise par le coût du matériel se retrouve à propos des AMHE. Posséder plusieurs types de simulateurs (bois, nylon et surtout métal) fonctionne comme une manière de se présenter en tant que pratiquant régulier. En effet, ceux qui ne font des AMHE qu’occasionnellement, qui se positionnent de fait à la limite des frontières du groupe, ne mettent pas en avant leur matériel comme peuvent le faire les pratiquants réguliers. En outre, la possession de différentes armes joue un rôle distinctif du point de vue financier, tous ne pouvant avoir l'ensemble des simulateurs ni toutes les protections disponibles sur le marché. Une autre source de fracture dans la cohésion de la communauté concerne le commerce effectué par les reconstituteurs « amateurs » quant à leur activité artisanale. Les observations permettent de comprendre que ces ventes ne sont généralement pas déclarées. Ce fait a pu être observé au cours de différents terrains, ainsi qu'en fonction des réponses fournies par les reconstituteurs au questionnaire. Le graphique suivant présente les réponses obtenues quant à la question du commerce effectué suite au développement d'une activité artisanale. Graphique 57 : Commerce mis en place par les reconstituteurs
Faites-vous commerce de l'activité artisanale que vous avez développée en reconstitution ? Non réponse 41 34.5% Oui 15 12.6% Non 63 52.9% Total 34.5% 12.6% 52.9% 119 100.0%
Source : Graphique réalisé d'après les réponses au questionnaire distribué aux reconstituteurs 557 -
Les objets de ces ventes sont principalement destinés au public, mais pas uniquement. Les reconstituteurs forment une part de la clientèle. Ce qui est vendu sans statut professionnel concerne divers types d'artisanats : textile, bois, cuir, etc. La part importante des nonréponses (34,5 %) quant à cette question, bien que les questionnaires aient été anonymisés, montre que cette manière de faire pose problème quant aux normes véhiculées par le groupe. Implicitement, ce qui est en jeu est une concurrence déloyale, puisque non soumise à l'imposition, faite aux artisans qui sont situés dans le champ professionnel. Seuls un peu plus de 12 % des enquêtés déclarent ouvertement faire commerce de leur activité artisanale. Les tensions ne sont guère évoquées par ailleurs, mais la volonté de dissimuler ces façons de faire se comprend parce que ces dernières positionnent l'histoire vivante aux marges de la légalité. La mise en avant de ces pratiques pourrait risquer de compromettre l'image extérieure, en la positionnant dans le cadre de l'illicite. En effet, au sein du groupe, ces ventes ne sont pas particulièrement cachées et les habitués savent à qui s'adresser pour tel ou tel artefact. Toutefois, avec la professionnalisation croissante au sein de la reconstitution, et en particulier avec la pluralité d'artisans reconnus, ces ventes non déclarées tendent sans doute à diminuer. Mais les artisans peuvent, eux aussi, faire quelquefois des ventes non déclarées. Mais là encore, tous restent discrets sur ce point, bien qu'il semble que ces actions soient inhabituelles : « C’est extrêmement rare et c'est plutôt en termes de cadeaux », « Non, je ne fais pas de ventes non déclarées, c'est très dangereux avec mon statut de petit artisan indépendant. Le secret bancaire ne concerne que les gros poissons... » Les ventes officieuses ne forment pas réellement de fracture entre les membres du groupe, mais elles sont peu évoquées afin de ne pas modifier l'image exposée. À l'inverse, les problèmes liés aux commandes passées par des reconstituteurs à des artisans sont parfois l'objet de tensions. Les retards pris par ces derniers dans les délais de livraison forment une part des discordes qui existent au sein de la communauté et fragilisent les relations entre les membres. Les représentations sociales des artisans s'en trouvent modifiées : de membres du groupe, ils peuvent s'en trouver exclus si les pratiquants leur refusent l’identité de professionnels. Le respect des normes, ici des délais annoncés, agit comme une garantie de la reproduction à l’identique et de la perpétuation des activités de chacun. Par ailleurs, un sujet de division fréquent renvoie au financement des associations. Ce point a déjà été évoqué, mais il doit l'être sous l'angle de la rupture qu'il peut provoquer dans le groupe. Il est souvent énoncé par les informateurs que l'histoire vivante est l'un des seuls loisirs qui « ne coûte rien » à ceux qui le pratiquent. Ces discussions font référence aux tarifs demandés par les associations pour se déplacer et animer lors d'une manifestation. Ces prix sont jugés, la plupart du temps, trop élevés ou démesurés. En dehors du simple défraiement, les coûts demandés sont fréquemment conçus comme une concurrence déloyale, puisque non taxée, faite aux professionnels. Il ne s'agit pas de s'attacher davantage à cette question, déjà prise en compte dans la partie précédente, mais de montrer le point de vue de quelques enquêtés, afin de signifier les tensions qui apparaissent entre les membres quant à cette question : « Nous pratiquons un loisir/passion, sous couvert d'associations de loi 1901 et à ce titre, aucune forme de recherche de gain ne devrait être tolérée. Nous ne devons pas commercialiser nos acquis culturels », « Le financement des groupes, extrêmement développé en France par la participation à des animations de collectivités locales, est devenu tellement répandu que la plupart des groupes ne se posent même plus la question de savoir pourquoi, comment les faire, ni même l'opportunité de telles pratiques. L’activité est censée coûter le moins possible, donc le recours à un financement externe est considéré comme légitime, a contrario de la plupart des loisirs ou du tourisme en général. » Le discours opposé est beaucoup moins évident et surtout peu développé directement. Là encore, les fractures sont sources de discorde et fragilisent l’identité de l'ensemble de la démarche, deux conceptions divergentes étant en présence. Certains cherchent à véhiculer une diffusion culturelle pour tous, basée sur la gratuité, tandis que d'autres mettent en avant le défraiement ou la facture comme une manière de perpétuer et de renouveler ce qui est présenté par les associations. Les deux perceptions coexistent mais les débats sont fréquents et font fluctuer les valeurs de l'histoire vivante. Un autre fait problématique énoncé par certains informateurs est une analyse du loisir en termes de réunions d'amis, sans organisation formelle réelle. Ce point est particulièrement sensible pour les AMHE. La faible proportion de membres, ainsi que le resserrement communautaire, invitent certains à penser que la démarche n'est le fait que d'un ensemble de proches, qui n'a pas vocation à s'étendre. Si cette analyse semble avoir un fond de vérité, compte tenu de l'importance prise par l’acceptation au sein de la communauté de chaque participant et de la figure essentielle des « anciens », il n'en demeure pas moins que les 559 - AMHE sont une technique en expansion. Ils s'adressent de plus en plus, et peu à peu, à un cercle plus large que les simples connaissances. Cette manière de voir les AMHE pouvait être opérante à leurs débuts, lorsqu'existait seulement une dizaine de pratiquants. À l'heure actuelle, la volonté de créer une fédération et le rayonnement de certains stages positionnent les AMHE dans une autre optique que les simples regroupements entre proches. D’ailleurs, le projet de fédération, tel qu'il est établi, cherche à englober tous les groupes reconnus, sans frontière géographique nord/sud. Même si, effectivement, le groupe de pairs a un poids important dans la démarche, celle-ci semble peu à peu sortir de ce simple cadre pour entrer dans celui plus global d'une reconnaissance à grande échelle. D'autre part, une conception des AMHE et de la reconstitution relative au combat fait l'objet de discorde entre les initiés des deux activités. Les points de dissension concernent le principe de l'historicité, toujours en jeu. Les reconstituteurs affirment être « historiques » quant à leurs réalisations en mêlées, parce que leur matériel est conforme à celui de l'époque représentée. Quant aux pratiquants d'AMHE, ils appuient leur légitimité par rapport à l'histoire en fonction du geste technique reconstitué. Le dialogue quant à cette question, entre les deux groupes, ne trouve pas de consensus. Chacun reste dans son approche et les discours se trouvent souvent rapidement taris. Le principe du combat est une source importante de rupture d'échange au sein des deux facettes de l'histoire vivante, qui ne travaillent pas de la même manière leur rapport à l'affrontement. Un participant à un forum résume parfaitement cette idée : la mêlée, « c'est du matériel histo et un geste pas histo », tandis que les AMHE utilisent « du matériel pas histo, mais ont un geste histo ». Pour autant, la pratique des AMHE avec du matériel historiquement plausible n'est pas possible, compte tenu de la dangerosité létale des coups portés. Ainsi, certains sujets ne trouvent pas d'accord et sont une source de dissidences, sans qu'aucune solution n’apparaisse comme envisageable.
| 7,617
|
6d1563459c55bbd1a79341ac16a8300d_2
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,021
|
facteurs de la transition du secteur informel vers le secteur formel
|
None
|
French
|
Spoken
| 1,552
| 2,646
|
Le volet administratif n’est pas le but recherché d’autant plus qu’il n’apparaît pas dans les différents
discours. Il faut dire que la plupart des tontines qui ont muté en EMF avaient une bonne
organisation. Cependant, nous n’avons pas cherché à savoir si le changement a été planifié ou non
pour les différentes tontines. Pour Seibel (1996), la création des nouvelles entités financières devrait
être planifiée de manière complémentaire ou consécutive. Ainsi, la mutation versun statut
d’organisation semi-formel est une étape qui peut mener à la transition générale (se transformer en
établissement formel). Pour cela, l’Etat doit promouvoir les modalités permettant la réduction des
écarts qui existent entre le secteur formel et le secteur informel. Le Bureau International du Travail
(BIT) dans son rapport sur la transition de l’économie informelle vers l’économie formelle
recommande la facilitation de la transition par ses Etats membres. Il propose aux Etats de réduire les
barrières à l’entrée des différents secteurs d’activités formelles. Il doit mettre en place des
passerelles conduisant au développement d'un ensemble de liens entre ces deux secteurs
financiers. Pour EssombeEdimo (1998), il faut éviter de chercher une suppression brutale du secteur
informel. La stratégie d’incitation des tontines à muter en EMF voudrait que le principal (l’Etat) mette
en placedes mécanismes nécessaires pour accompagner l’agent (la tontine) dans sa transformation.
La transition des tontines devrait être davantage encouragée, car elle contribue d’une manière ou
d’une autre au processus de l’inclusion financière. Les tontines qui veulent migrer vers le secteur
ISSN 1923-2993
Journal of Academic Finance (J.o A.F.)
Vol. 12 N° 2 Fall 2021
100
André KADANDJI
formel s’ouvrent en acceptant plus de membres. Ceci afin de disposer d’assez de fonds pour ouvrir
une coopérative d’épargne. Les tontines sont également vues comme un lieu d’information.
Lesmembres se retrouvent pour pouvoir échanger par rapports aux différentes opportunités
d’investissement, ou pour tout autre type d’informations. D’autres doivent même leur existence du
fait qu’elles soient vraiment secrètes et qu’elles ne veulent s’y ouvrir, au public, ni de transition vers
le secteur formel. Ce qui dénature leur existence. C’est dans cette perspective que
NguebouToukam(2002) dit que « le lien interpersonnel qui se créé dans les tontines est
particulièrement fort et oblige la communauté à soutenir, matériellement et moralement, chacun de
ses membres en cas de « coup dur ». Ce lien se construit pas à pas. De même, on rencontre au sein de
nombreuses associations, des slogans ou chanson fédérateurs du groupe pour signifier une unité
forte. Ce sont la mise en commun ou communication, la participation de chaque membre autour
d’une idée qui donnent lieu à la création de la valeur ajoutée non négligeable. En aidant chaque
participant dans sa vie quotidienne, le regroupement partage les mêmes valeurs socioculturelles. Les
associations informelles d’épargne et de crédit communiquent et renforcent leurs relations dans la
confiance à travers la codification des usages, coutumes et rituels ».
La tontine est un intermédiaire financier flexibilité et souple. En plus, la variation typologique de
cette dernière montre qu’elle est une institution innovante. Cependant, il est important de savoir
dans quelle mesure cette structure pourrait transiter vers le formel pour financer la petite entreprise
au Cameroun. Une observation minutieuse de ces structures pourrait aider à mettre sur pied des
stratégies adaptées pour la formalisation de ces institutions. Au Japon, par exemple, les tontines
rurales et les tontines urbaines ont donné naissance aux coopératives agricoles et ont profondément
modelé la création, dès la fin du XIXe siècle, du système financier moderne du Japon (EssombeEdimo,
1998).
7. Conclusion
Le phénomène de migration du secteur informel vers le secteur formel est vu comme une
innovation. Certains partisans de la finance informelle décident de muter vers un environnement
dont les activités sont plus encadrées. Ledit environnement est régi par des règles et dispose d’un
mode de fonctionnement beaucoup plus transparent, ce qui oppose totalement celui des
tontines. Qu’est-ce qui motive cette transition vers le secteur formel d’autant plus qu’il est doté de
contraintes règlementaires, qui a priori leur pose problème ? Qu’est ce qui encouragerait donc les
tontines à muter vers le statut formel en devenant des EMF ?
Dans le cadre de notre recherche, l’option méthodologique qui découle de la question posée est
qualitative. L’analyse du phénomène dans une perspective compréhensive fait ressortir deux facteurs
déterminant dans la mutation de l’informel vers le formel : la recherche de la visibilité et le mode
d’organisation. Ces deux éléments expliquent en contexte camerounais, le désir de transition des
tontines vers le secteur formel. Le désir de la transition s’explique aussi au travers de nombreuses
limites dont disposent les tontines ; bien qu’au niveau de la satisfaction des besoins des membres
qu’à respect des engagements à échéance. La visibilité est un moyen qui permet de rassurer les
différents membres de l’association. Elle garantit une certaine fiabilité et la rend plus crédible aux
yeux des différents membres. Pour cela, l’association doit disposer d’un agrément d’exercice obtenu
auprès de l’organe de supervision. Le mode d’organisation quant à lui est régi et structuré par la
règlementation en vigueur. Au terme de cette étude, on constate que les facteurs déterminant de la
mutation des tontines vers les EMF sont liés aux comportements des épargnants au Cameroun.
La nécessité de la transition vers le secteur formel se révèle être une polémique au travers les
différentes interventions des auteurs. Les pratiques financières informelles peuvent servir de
plateforme d'innovation pour le développement d'un système bien adapté au contexte local. Pour
cela, les stratégies visant la transition du secteur informel vers le secteur formel doivent intégrer les
spécificités culturelles et sectorielles. Ainsi, pour concevoir les législations, les Etats doivent procéder
ISSN 1923-2993
Journal of Academic Finance (J.o A.F.)
Vol. 12 N° 2 Fall 2021
Les facteurs de la transition du secteur informel vers le secteur formel
101
à un diagnostic et à une évaluation des facteurs et des caractéristiques de l’informalité. Surtout qu’il
est recommandé de faciliter la transition des unités économiques de l’économie informelle vers
l’économie formelle en allégeant les barrières à l’entrée.
8. Bibliographie
Abaté A. M., (2017) « Transition des entreprises informelles vers le formel : Les zones-grises comme
stratégie entrepreneuriale de façade », Revue africaine de management - African management
review, Vol.2, n°1, pp.1-21
Autissier D., et Moutot, J. M. (2003), Pratiques de la conduite du changement : Comment passer du
discours à l'action, Dunod
Banque mondiale, (1989), Rapport sur le développement dans le monde- systèmes financiers et
développement, Washington, pp.134-144.
Basu A., Blavy R. et Yulek M. (2004), “Microfinance in Africa: Experience and Lessons from Selected
African Countries”, International Monetary Fund Working Paper, WP/04/174
Bekolo-Ebe B. et Bilongo R. (1989), « Le système des tontines : liquidité, intermédiation et
comportement d’épargne », Revue d’économie politique, Vol.99, n°4, pp. 616-638
Bouman F. J. A. (1995), “Rotating and accumulating saving and Credit Association: A Development
Perspective”, World Development, vol. 23, no 3, pp 371-384.
Bureau International du Travail (2015), La transition de l’économie informelle vers l’économie
formelle, Conférence internationale du travail, 104e session, Rapport V (1).
Demenet A., (2014) « Transitions entre les secteurs formel et informel en période de crise au
Vietnam », Mondes en développement, volume 2, n° 166, pp. 73-86
EssombeEdimo J. R. (1998) « Dynamique financière des tontines : quels enseignements pour le
financement des petites entreprises en Afrique ? » Tiers-Monde, tome 39, n°156, pp. 861-883
Fall, M., Kadandji, A. et Kaboré, S. (2021), « La contribution des produits de bancassurance a la
bancarisation au Cameroun », Revue d’analyse économique et financière, n°1, pp. 89-119
Kemayou L. R., GuebouTadjuidje F. et Madiba M. S. (2011), « Tontine et banque en contexte
camerounais », La Revue des Sciences de Gestion, Vol.3, n° 249-250, pp. 163-170
KenmegniNoumigue G. R. (2015) “Formal, informal and semi-formal sources of finance: Is there any
difference amongstCameroonian small enterprises and mediumenterprises?” Journal of
Entrepreneurship and Innovation Management, Volume 4, Issue 2, pp. 105-122
Labie M. (1999), La microfinance en question – Limites et choix organisationnels, Editions Luc Pire
Labie M. (2009), « Microfinance : évolutions du secteur, diversification de produits et gouvernance »,
Reflets et Perspectives de la vie économique, 48(3), 5-6
Lelart, M. (1990), La tontine pratique informelle d'épargne et de crédit dans les pays en voie de
développement, John LibbeyEurotext
Lelart, M. (2002), « L'évolution de la finance informelle et ses conséquences sur l'évolution des
systèmes financiers », Mondes en développement, (3), 9-20
Lelart, M. (2005), De la finance informelle à la microfinance, Archives contemporaines
ISSN 1923-2993
Journal of Academic Finance (J.o A.F.)
Vol. 12 N° 2 Fall 2021
102
André KADANDJI
Lhériau, L. (2009), Précis de réglementation de la microfinance, Agence Française de Développement
NguebouToukam J. et Fabre-Magnan M. (2002), « La tontine : une leçon africaine de solidarité »,
Nantes, 29 et 30 novembre, Colloque international, Les Sciences de l’Homme en Afrique
Seibel H. D., (1996) « Finance formelle et informelle : stratégies de développement des systèmes
locaux de financement », Revue Tiers-Monde, tome 37, n°145, pp. 97-114
Servet J. M. (1995), « Epargne et liens sociaux », Etudes comparées d’informalités
Servet J. M. (1996), « Risque, incertitude et financement de proximité en Afrique : Une approche
socio-économique », In Tiers Monde, tome 37, n°145, pp. 41-57 ;
Taplin, D. H. et Clark H. (2012), “Theory of change basics: A primer on theory of change”, New York:
Acknowledge
Tello Rozas S. et Gauthier B.
| 2,459
|
html2003PA066538_3
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 6,798
| 11,306
|
Un nanotube de carbone peut être représenté par un cylindre. Dans un modèle simple, l’échantillon peut être représenté par un ensemble de nanotubes multiparois alignés, dont on étudie la constante diélectrique [74,75]. Le nanotube est décrit comme un cylindre de rayon extérieur R et de rayon intérieur r. On pose ρ = r/R. La condition de la résonance plasmon est comprise entre les deux situations extrèmes où ρ = 0 (tube plein) et ρ = 1 (tube "creux", paroi infiniment mince) [74, 75] : ǫ1 (Ωp ) + ǫm = 0 pour ρ = 0 ǫ1 (Ωp ) = 0 pour ρ = 1 La situation ρ = 1 pourrait être la plus proche de la nôtre (nanotube monoparoi), mais elle n’a pas de sens car à l’échelle de dt ∼ 1 nm, l’extension des fonctions d’onde π (de l’ordre de quelques Angström) n’est pas négligeable. La réalité est certainement à mi-chemin entre les deux situations extrêmes décrites plus haut et fait intervenir ǫm la constante diélectrique de l’environnement (voir chapitre 2). De plus, les spectres calculés dans la référence [75] montrent que la résonance plasmon la plus proche de celle que nous mesurons (voir chapitre 2) correspond à la situation ρ = 0, 8. Nous utiliserons donc une condition ǫ1 (Ωp ) = f (ǫm ) ne dépendant que de l’environnement. Nous ne pourrons donc faire qu’une description semi-quantitative de la résonance plasmon de surface (voir chapitre 3 et 4). 1.6 Conclusion
Dans ce chapitre, nous avons détaillé quelques exemples de méthodes de synthèse des nanotubes de carbone en nous attachant à faire ressortir les avantages et les inconvénients de chacune d’entre elles. Nous avons aussi étudié la structure des nanotubes de carbone mono-paroi, dans l’espace réel ainsi que dans l’espace 1.6. CONCLUSION 51 réciproque. Ceci nous a permis de donner les principaux résultats concernant leur structure électronique. Par exemple, nous avons pu expliciter la condition selon laquelle un nanotube est soit métallique, soit semi-conducteur. Enfin, nous avons donné quelques éléments théoriques sur les propriétés optiques des nanotubes de carbone. Nous avons notamment énoncé les règles de sélection pour les transitions optiques et expliqué la présence d’un plasmon de surface. 52
CHAPITRE 1. LES NANOTUBES DE CARBONE : GÉNÉRALITÉS Chapitre 2 Préparation des échantillons et protocoles expérimentaux 2.1 Introduction
Afin d’étudier les propriétés optiques des nanotubes de carbone, nous avons utilisé différentes techniques. Nous avons réalisé des expériences de spectroscopie d’absorption, de photoluminescence et d’excitation de la photoluminescence, et enfin des expériences résolues en temps de type pompe-sonde. Nous détaillerons dans ce chapitre les différents montages expérimentaux employés. D’autre part, nous examinerons la méthode de purification que nous avons utilisée pour obtenir uniquement des nanotubes de carbone mono-paroi à partir du matériau brut. Nous verrons aussi dans ce chapitre comment il est possible d’isoler les nanotubes les uns des autres en effectuant des mises en suspension élaborées ou en les incluant dans une matrice polymère, ces protocoles expérimentaux ouvrant la voie à la synthèse d’échantillons sur lesquels il est possible d’observer un signal de photolum
escence. 2.2 2.2.1 Dispositifs expérimentaux Introduction
Pour étudier les propriétés optiques des nanotubes de carbone, nous avons été amenés à utiliser plusieurs techniques expérimentales. Tout d’abord, la technique de spectroscopie d’absorption a été utilisée dans un but de caractérisation des échantillons de nanotubes. Puis, nous avons mis en oeuvre un montage de spectroscopie de photoluminescence et d’excitation de la photoluminescence afin d’étudier les propriétés d’émission de lumière des nanotubes. La dynamique ultrarapide des porteurs de charge dans les nanotubes de carbone a été étudiée à 53 54 CHAPITRE
2. ECHANTILLONS ET PROTOCOLES EXPÉRIMENTAUX
l’aide d’un montage de type pompe-sonde. Enfin, la plupart de ces expériences ont été réalisées aussi bien à température ambiante qu’à basse température (4K) en utilisant les techniques de cryogénie à l’hélium liquide.
2.2.2 Cryogénie
Pour étudier les propriétés optiques des nanotubes de carbone à basse température, nous avons utilisé deux types de cryostats. Un cryostat à température variable, fabriqué dans les ateliers du laboratoire, dans lequel l’échantillon est plongé dans un bain d’hélium gazeux. La température est ajustée en réglant d’une part le flux d’hélium gazeux et d’autre part l’intensité du courant électrique circulant dans une résistance chauffante placée sur le porte-échantillon. Le bain d’hélium est isolé de l’extérieur par le vide réalisé entre deux queues cylindriques en verre, ce qui permet un accès optique à 180o sur l’échantillon. Le deuxième type de cryostat est un cryostat à bain d’hélium, pour lequel l’échantillon baigne dans l’hélium super-fluide (2K). La super-fluidité de l’hélium est atteinte en pompant l’enceinte dans laquelle se trouve l’échantillon. Le bain d’hélium super-fluide est là aussi isolé de l’extérieur par le vide réalisé entre deux queues cylindriques en verre. 2.2.3 Spectroscopie d’absorption
Afin de caractériser les échantillons de nanotubes que nous avons préparés, nous avons utilisé la spectroscopie d’absorption, en ayant le plus souvent recours à un spectrophotomètre commercial (figure 2.2.1). Celui-ci possède deux sources ainsi que deux détecteurs afin de pouvoir travailler sur une grande gamme d’énergie (de 6, 5 eV à 0, 5 eV). Il s’agit d’un spectrophotomètre double-voie de marque Perkin-Elmer (model UV/VIS/NIR lambda 900). Sur une des voies, on place l’échantillon à étudier et l’autre voie sert de référence, on y place par exemple un substrat identique à celui de l’échantillon, une cuve contenant le même solvant etc... Ce système permet d’obtenir des spectres corrigés des variations extrinsèques de transmission : réponse spectrale des sources, des détecteurs, fluctuations temporelles de l’intensité des sources etc... Le tout est contrôlé à l’aide d’un ordinateur. D’autre part, pour effectuer des spectres d’absorption à basse température, nous avons réalisé un montage de spectroscopie d’absorption en reprenant le principe du spectrophotomètre double-voie, mais permettant d’insérer un cryostat sur la voie où est placé l’échantillon, ce qui est impossible dans le spectrophotomètre commercial.
2.2. DISPOSITIFS EXPÉRIMENTAUX 55
Vo ie de Détecteur référence Porte Sources échantillon Vo ie de Détecteur l échantillon Ordinateur
Fig. 2.2.1 – Schéma de principe d’un spectrophotomètre double faisceau.
2.2.4 Photoluminescence et excitation de la photoluminescence
Dans cette partie, nous allons rappeler rapidement le principe du phénomène de photoluminescence. Ensuite, nous décrirons le montage expérimental que nous avons utilisé pour réaliser nos expériences
Principe du phénomène de photoluminescence
Considérons un schéma de principe à trois niveaux |0i, |1i, |2i (figure 2.2.2). Un faisceau de lumière intense, accordé avec la transition |0i → |2i, excite le système. Des électrons sont alors promus sur le niveau |2i. Ces électrons relaxent jusqu’au niveau |1i. Enfin, ces électrons retournent vers le niveau |0i en émettant un photon d’énergie égale à la différence d’énergie entre les niveaux |1i et |0i. On observe alors une émission de lumière, appelée photoluminescence, à une énergie plus basse que l’énergie de l’onde excitatrice. Il est possible que les électrons retournent directement du niveau |2i vers le niveau |0i en émettant des photons d’énergie égale à celle de la transition |0i → |2i. Cependant, il est impossible d’observer ce phénomène dans notre configuration car le détecteur ne peut pas distinguer la contribution de la luminescence de celle de la diffusion de pompe.
56 CHAPITRE 2. ECHANTILLONS ET PROTOCOLES EXPÉRIMENTAUX 2
Pompe 1
Non radiatif hv 0
Fig. 2.2.2 – Schéma de principe du phénomène de photoluminescence. Montage expérimental
Le montage expérimental de photoluminescence est représenté sur la figure 2.2.3. L’excitation optique de l’échantillon est assurée par un laser Titane :saphir continu pompé à l’aide d’un laser à argon ionisé (P = 12 W). Le laser Titane :saphir fonctionne dans une gamme d’énergie allant de 1, 24 eV jusqu’à 1, 77 eV. L’énergie de l’excitation laser est sélectionnée en faisant tourner un filtre de Lyot placé à l’intérieur de la cavité laser. Le filtre de Lyot est une lame biréfringente dont l’orientation ne permet qu’à un nombre limité de modes longitudinaux d’avoir la polarisation imposée par la cavité. La rotation du filtre de Lyot est automatisée grâce à un moteur pas-à-pas contrôlé par ordinateur. Après avoir étalonné l’énergie d’émission du laser en fonction de la position du filtre de Lyot, il nous est possible d’exciter l’échantillon à une énergie laser donnée EL. A la sortie du laser Titane :saphir, la puissance moyenne disponible est PL ∼ 1, 5 W. Suivant les besoins, on atténue le faisceau à l’aide de densités optiques (filtres neutres NG). Enfin, il nous est aussi possible d’utiliser directement le faisceau du laser à argon ionisé pour exciter l’échantillon à plus haute énergie. Ce dernier possède plusieurs raies d’émissions. La plus intense est située à 2, 41 eV. La luminescence est recueillie selon la normale à l’échantillon. La lumière émise par l’échantillon est collectée à l’aide d’un système afocal composé de deux lentilles, permettant d’optimiser le flux recueilli. La lumière collectée est ensuite analysée à l’aide d’un double spectromètre de 60 cm de focale (HRD2 Jobin Yvon) qui disperse la lumière à l’aide de réseaux de 1200 traits.mm−1 blazés à 1, 24 eV dans le deuxième ordre. L’ouverture des fentes d’entrée et
2.2. DISPOSITIFS EXPÉRIMENTAUX 57
miro ir Laser Ti:Saph Laser Argon Hacheur optique Cryostat Échantillon Commande des moteurs Ordinateur Double Spectromètre Photodiode InGaAs amplifiée Détection synchrone
Fig. 2.2.3 – Schéma de principe d’un montage de photoluminescence et d’excitation de la photoluminescence. de sortie du spectromètre est réglée en fonction de la résolution désirée et du flux disponible. Un moteur pas-à-pas contrôlé par ordinateur permet de déplacer les réseaux. Après étalonnage du spectromètre à l’aide d’une lampe spectrale, l’énergie de détection est sélectionnée automatiquement. La plupart du temps, nous avons travaillé avec les fentes du spectromètre ouvertes au maximum du fait de la faible intensité des signaux mesurés. La résolution du montage dans cette configuration est d’environ 2 meV. Le détecteur que nous utilisons est une photodiode InGaAs Hamamatsu étendue en longueur d’onde et refroidie à −15o C par effet Peltier. Le maximum d’efficacité de détection de la photodiode est situé autour de 0, 65 eV. Enfin, le courant issu de la photodiode est envoyé, après préamplification, vers un amplificateur à détection synchrone. Le hacheur optique module le faisceau d’excitation à une fréquence de référence νref de quelques
58 CHAPITRE
2. ECHANTILLONS ET PROTOCOLES EXPÉRIMENTAUX
centaines de Hertz. L’amplificateur à détection synchrone permet alors d’extraire de la tension mesurée la composante à la fréquence νref. Ceci permet d’éliminer une partie des signaux parasites et le rapport signal sur bruit est amélioré. La sortie numérique de l’amplificateur à détection synchrone est reliée à l’ordinateur pour l’acquisition des données.
Photoluminescence et excitation de la photoluminescence
Pour réaliser une expérience de photoluminescence à partir du montage décrit sur la figure 2.2.3, l’énergie d’excitation est fixée et nous faisons varier l’énergie de détection. La photoluminescence donne des informations sur la transition fondamentale. Pour effectuer une expérience d’excitation de la photoluminescence (PLE), l’énergie de détection est fixée et nous faisons varier l’énergie d’excitation. La PLE s’apparente à l’absorption (si on considère qu’il n’y a pas de pertes entre les niveaux |2i et |1i de la figure 2.2.2). Elle donne donc des informations sur les transitions vers les niveaux excités. Elle permet de faire des études sélectives, dans le sens où elle permet d’étudier spécifiquement la façon dont sont reliés le niveau excité de la transition détectée et les niveaux de plus haute énergie, contrairement à l’absorption où l’on observe simultanément toutes les transitions possibles pour une énergie de photon donnée.
2.2.5 Dispositif pompe-sonde
La dynamique de relaxation des porteurs de charge dans les nanotubes se déroule sur des échelles de temps allant de la centaine de femtosecondes à quelques dizaines de picosecondes. Ces échelles de temps sont totalement inaccessibles avec les meilleurs composants électroniques. Pour atteindre une telle résolution temporelle, on peut utiliser des impulsions lumineuses ayant une durée courte devant les temps caractéristiques des phénomènes étudiés. Ces impulsions sont créées par des sources laser femtosecondes. La résolution temporelle de l’expérience (c’est à dire la durée des processus physiques les plus rapides que nous pouvons mesurer) est alors donnée par la largeur de la corrélation croisée des impulsions de pompe et de sonde. Principe d’une expérience pompe-sonde
Dans une expérience pompe-sonde (figure 2.2.4), une première impulsion très intense, appelée la pompe, arrive sur l’échantillon et modifie certaines de ses propriétés de façon transitoire. Dans un deuxième temps, une impulsion de faible intensité, appelée la sonde, arrive sur l’échantillon avec un retard variable par rapport à la pompe et sonde la modification des propriétés de l’échantillon. Pour
2.2. DISPOSITIFS EXPÉRIMENTAUX 59
contrôler des retards de l’ordre de la femtoseconde, on utilise la vitesse de la lumière (c = 3.108 m.s−1 ) afin de convertir le temps en espace. En effet, il est possible techniquement de contrôler des déplacements mécaniques de l’ordre de 0, 1 μm. Le temps de parcours d’une impulsion lumineuse sur une telle distance correspond à une fraction de femtoseconde. Cette idée est l’idée sous-jacente à tous
Ordinateur Ar (Cryostat) Ligne à retard échantillon Modulation TiSa à 1.53eV 2 Détection Impulsi ons: synchrone ~80fs pe Po m 0.65eV à 0.85eV Impulsi ons : ~180 fs Sonde OPO 1 Photodiode Modulation à 1 Signal/idler Lame séparatrice
Fig. 2.2.4 – Schéma de principe du dispositif pompe-sonde. les dispositifs optiques résolus en temps à l’échelle subpicoseconde [76]. Ce retard est contrôlé en faisant varier le chemin optique de la sonde (ou de la pompe) à l’aide d’une platine de translation sur laquelle est disposé un coin de cube.
+ 2 60
CHAPITRE 2. ECHANTILLONS ET PROTOCOLES EXPÉRIMENTAUX
La modification transitoire des propriétés de l’échantillon est proportionnelle à l’intensité de la pompe. Il s’agit donc d’un phénomène non-linéaire d’ordre 3. verrons dans le chapitre 4 comment nous pouvons relier les résultats de nos mesures à la susceptibilité non-linéaire d’ordre 3 des nanotubes. L’impulsion de sonde est partiellement réfléchie, absorbée et transmise. Un détecteur mesure l’intensité transmise (ou réfléchie) pour chaque retard temporel. Pour chaque position de la platine de translation, le retard entre la pompe et la sonde est fixé et le détecteur mesure une intensité moyenne. Le détecteur n’a absolument pas besoin d’avoir une rapidité comparable à la durée de l’impulsion. En faisant varier ce retard, on obtient la réponse temporelle des nanotubes. La précision de l’échantillonnage est limitée par la précision du déplacement de la ligne à retard que nous utilisons. Dans notre cas, le pas du déplacement est de 0, 1 μm. Ceci nous donne un pas temporel de 2∆x/c = 0, 66 fs (la lumière fait un aller-retour sur la platine). L’intensité de la sonde est environ 100 fois inférieure à celle de la pompe. Les modifications des propriétés de l’échantillon induites par la pompe se traduisent par un changement transitoire de la transmission de l’échantillon à l’énergie de la sonde. Dans le régime de faible perturbation dans lequel nous nous sommes placés (voir chapitre 4), ces changements de transmission sont très faibles, de l’ordre de 10−3 − 10−5 en valeur relative. Il est donc difficile de les distinguer des autres signaux détectés par la photodiode, dus par exemple aux fluctuations d’intensité du laser ou à la diffusion du faisceau de pompe. Pour s’affranchir de ces problèmes, on utilise plusieurs techniques. D’une part, on sépare spatialement les faisceaux de pompe et de sonde en introduisant un angle d’environ 30o entre les deux voies, ce qui permet de bloquer efficacement la pompe sans diaphragmer la sonde. Lorsque la sonde et la pompe sont à des énergies différentes (configuration à deux couleurs), une simple sélection spectrale à l’aide de filtres colorés suffit pour s’affranchir de la diffusion de pompe. Si nous nous plaçons dans une configuration dégénérée, où la pompe et la sonde sont à la même énergie, il est possible de jouer sur la polarisation des faisceaux pour éliminer la contribution de la diffusion de pompe. Concrètement, un compensateur de Babinet-Soleil, utilisé comme ligne à retard réglable, permet de croiser les polarisations de pompe et de sonde, aux différentes énergies utilisées au cours de ces expériences. Un polariseur de Glan-Taylor convenablement disposé devant le détecteur permet alors de sélectionner efficacement le faisceau de sonde. Les niveaux de signaux (∆T /T, ∆R/R) que nous devons mesurer sont de l’ordre de 10−3 − −5. Les fluctuations d’intensité de nos sources sont souvent plus élevées que ces valeurs. De façon générale en physique, beaucoup de phénomènes présentent une densité spectrale de bruit qui suit une loi en 1/f [77]. L’intensité de nos sources ne suit pas exactement cette loi, mais le niveau de bruit diminue efficacement avec la fréquence. Une modulation mécanique du faisceau de pompe, couplée à un amplificateur à détection synchrone, permet donc de diminuer sensiblement le 2.2. DISPOSITIFS EXPÉRIMENTAUX 61 bruit. Enfin, on utilise aussi une technique de double modulation mécanique et détection à la fréquence somme qui est doublement efficace puisqu’elle réduit aussi les problèmes liés à la diffusion de pompe. Mais son inconvénient majeur est qu’elle ne permet pas d’avoir accès facilement à la valeur absolue du changement de transmission. Pour cette raison, cette technique est employée le moins souvent possible.
Détails du montage expérimental
La chaine laser est composée d’un laser argon "beamlock" qui pompe un laser Titane :saphir femtoseconde TSUNAMI (Spectra Physics) ; ce dernier sert lui-même de pompe à un oscillateur paramétrique optique commercial OPAL (Spectra Physics). Pour certaines expériences (voir chapitre 4), nous utiliserons directement les impulsions issues du titane :saphir. Le laser Titane :saphir donne accès à une gamme d’énergie allant de 1, 24 eV à 1, 77 eV (tableau 2.2.8). Dans le laser Titane :saphir, le phénomène de blocage de modes donne naissance à des impulsions ultra courtes de durée ≃ 60 fs avec un taux de répétition de 82 MHz. Grâce à une vis micrométrique extérieure, il nous est possible de régler la position des prismes intra-cavités qui servent à compenser la dispersion de vitesse de groupe et ainsi à régler la durée des impulsions. Le spectre de l’émission laser est visualisé à l’aide d’une barrette de diodes placée à la sortie d’un spectrographe à réseau de diffraction. Les impulsions étant quasiment limitées par la transformée de Fourier (∆E∆τ ≃ h̄), l’allure du spectre nous permet de connaître la durée approximative des impulsions et nous indique également si le laser délivre ou non des impulsions. Enfin, comme pour le fonctionnement en mode continu, l’énergie centrale de l’émission est ajustée par rotation d’un filtre de Lyot [78]. L’oscillateur paramétrique optique donne accès à des énergies allant de 0, 65 eV à 0, 85 eV (tableau 2.2.8). L’OPO consiste en une cavité laser dans laquelle est placé un cristal non-linéaire de BBO (β Borate de Barium). L’amplification paramétrique est un phénomène non-linéaire d’ordre 2 : Une onde de faible puissance de fréquence ω1 est amplifiée par une onde intense de fréquence ω3 et donne naissance à une onde complémentaire ("idler") de fréquence ω2 vérifiant [79] : ω3 = ω1 + ω2 Pour réaliser l’oscillation paramétrique, le milieu amplificateur est placé dans une cavité dont les miroirs dichroïques sont transparents aux fréquence ω3 et ω2 et réfléchissants à la fréquence ω1. A partir de l’onde de fréquence ω3 seule (l’oscillation démarre sur du bruit), on obtient une source accordable aux fréquences ω1 et ω2 vérifiant les relations suivantes [79] : ω3 = ω1 + ω2, conservation de l′ energie
62
CHAPITRE 2. ECHANTILLONS ET PROTOCOLES EXPÉRIMENTAUX
n3 ω3 = n1 ω1 + n2 ω2, conservation de l′ impulsion Où ni représente l’indice du cristal à la fréquence ωi. Le principe de fonctionnement de l’OPO assure que les impulsions du "signal" et de l’"idler" sont synchronisées. Dans l’OPO que nous utilisons, l’accordabilité en fréquence se fait en utilisant la variation de la biréfringence du cristal de BBO avec la température. Le laser Titane :saphir qui pompe l’OPO a une énergie fixée à h̄ω3 = 1, 53 eV. Le "signal" et l’"idler" sont extraits de la cavité à deux endroits différents. Au niveau de ces sorties, nous disposons d’environ 200 mW de "signal" et d’environ 100 mW d’"idler". D’autre part, au niveau de la sortie de l’"idler", sort également la partie résiduelle de l’injection du Titane :saphir. Nous disposons donc au niveau de cette sortie d’impulsions d’énergie 1, 53 eV synchronisées avec le "signal" et l’"idler". Cette fuite de la pompe correspond tout de même à environ 400 mW. Pour avoir accès à des énergies différentes de celles délivrées par le laser Titane :saphir ou par l’OPO, nous avons réalisé le doublage de fréquence du Titane :saphir (3, 06 eV). Le doublage de fréquence est réalisé à l’aide d’un cristal non-linéaire de BBO. L’accord de phase est réalisé en orientant correctement le cristal. La détection se fait à l’aide de différentes photodiodes suivant la configuration dans laquelle se trouve le dispositif. Lorsque la sonde est dans l’infrarouge, nous utilisons une photodiode InGaAs étendue refroidie par effet Peltier. Lorsque la sonde a une énergie supérieure à 1, 3 eV, nous utilisons une photodiode au silicium. Caractérisation des impulsions
La résolution temporelle de l’expérience est donnée par la corrélation croisée des impulsions de pompe et de sonde (figures 2.2.5, 2.2.6 et 2.2.7). Dans une configuration dégénérée, où la pompe et la sonde sont à la même longueur d’onde, la résolution temporelle de l’expérience est d’environ 235 fs lorsqu’on utilise le "signal" et d’environ 260 fs lorsqu’on utilise "l’idler". Dans une configuration à deux couleurs, où une des impulsions provient du Ti : saphir, la résolution temporelle est meilleure (190 fs) car les impulsions du Ti : saphir sont plus courtes que celles de l’OPO. Dans la suite de ce manuscrit, nous désignerons les différentes configurations par la donnée des deux énergies des faisceaux de pompe et de sonde, dans cet ordre.
2.2. DISPOSITIFS EXPÉRIMENTAUX
63 T/T normalisé 1 235 fs 0 -400 -200 0 200 400 Retard temporel
(
f
s) Fig. 2.2.5 – Corrélation croisée du "signal" de l’OPO à 0, 8 eV (courbe noire). Ajustement gaussien de largeur 235 fs (courbe en pointillés gris). T/T normalisé 1 260 fs 0 -400 -200 0 200 400 Retard temporel (fs) Fig. 2.2.6 – Corrélation croisée de "l’idler" de l’OPO à 0, 7 eV (courbe noire). Ajustement gaussien de largeur 260 fs (courbe en pointillés gris). 64
CHAPITRE 2. ECHANTILLONS ET PROTOCOLES EXPÉRIMENTAUX
T/T
normalisé 1 190 fs 0 -400
-200
0 200 400
Retard temporel (fs) Fig. 2.2.7 – Corrélation croisée du "signal" de l’OPO à 0, 8 eV et du "signal" du Ti :saphir à 1, 53 eV (courbe noire). Ajustement gaussien de largeur 190 fs (courbe en pointillés
). Configuration Laser Gamme d'énergie (eV) Ti:Saphir 1.77 1.24 Dégénérée OPO signal: 0.77 0.85 idler: 0.65 0.7 pompe: Ti:Saphir Deux couleurs sonde: OPO 1.53 (fixe) signal: 0.77 0.85 idler: 0.65 0.7 signal: 0.77 0.85 Deux pompe: OPO idler: 0.65 0.7 couleurs "inversée" sonde: Ti:Saphir 1.53 3.06 (doublé)
Fig. 2.2.8 – Résumé des gammes d’énergies accessibles dans les différentes configurations.
2.3. PRÉPARATION DES ÉCHANTILLONS 2.2.6 65 Conclusion
Dans cette partie, nous avons détaillé les différents montages expérimentaux utilisés lors de cette thèse. Nous verrons dans les chapitres 3 et 4 quelles informations sur les propriétés optiques des nanotubes de carbone ces techniques expérimentales nous ont apportées.
2.3 2.3.1 Préparation des échantillons Introduction
Pour cette thèse, différentes sortes de nanotubes ont été utilisées : d’une part des nanotubes issus de la méthode de synthèse HiPCO achetés à Tubes@rice qui n’ont a priori subi aucune purification et qui ne nécessitent aucun traitement, et d’autre part des nanotubes issus de la méthode de synthèse par ablation laser fournis par O. Jost de l’Université Technique de Dresde (Allemagne) dans le cadre du projet européen SATURN.
2.3.2 Purification des nanotubes fabriqués par ablation laser
Les échantillons que nous recevons de Dresde sont constitués du produit brut de synthèse, qui contient des nanotubes de carbone mono-paroi, des fullerènes, du carbone amorphe et des restes de catalyseurs. Nous procédons donc à une étape de purification afin d’extraire les nanotubes du matériau brut. Cette étape de purification est effectuée au CEA Saclay dans le Laboratoire d’Electronique Moléculaire par l’équipe MERL (Molecular Electronic Research Lab.) du centre de recherche Motorola 80]. N’ayant pas réalisé nous-mêmes la purification du matériau brut, nous ne décrivons que qualitativement les différentes étapes du processus. La problématique de l’étape de purification est la suivante : il faut pouvoir extraire les nanotubes de carbone du matériau brut, sans les endommager. La meilleure technique est la chromatographie par exclusion de taille [81]. En effet, cette technique, qui trie par capillarité les éléments d’une solution en fonction de leur taille, n’induit a priori aucun défaut dans les nanotubes. Cependant, cette technique ne permet de travailler qu’avec de faibles quantités de nanotubes (de l’ordre du mg/jour). Or, pour les travaux du consortium SATURN, un des objectifs était de travailler sur des quantités de l’ordre de 10 g/jour. L’équipe MERL de Motorola a donc choisi une autre méthode de purification permettant d’atteindre cet objectif. Le processus de purification que nous avons utilisé comporte deux étapes.
La
66
CHAPITRE 2. ECHANTILLONS ET PROTOCOLES EXPÉRIMENTAUX
Paticules de catalyseurs 200 nm Fig. 2.3.9 – Image TEM prise au CEA-Saclay des nanotubes V90 avant purification. Les nanotubes sont agrégés en corde. Présence de particules de catalyseurs. Fig. 2.3.10 – Image TEM prise au CEA-Saclay des nanotubes V90 après les deux étapes de purification. première étape est un traitement à base d’acide nitrique (HN O3 ). Le produit brut est laissé quelques heures dans un bain de HN O3 dilué. Cette étape 2.3.
PRÉPARATION DES ÉCHANTILLONS 67
Fig. 2.3.11 – Image TEM prise au CEA-Saclay des nanotubes V90 après les deux étapes de purification. Agrandissement sur la surface d’une corde de nanotubes. permet d’éliminer la majeure partie des restes de catalyseurs métalliques [29–33]. Cependant, lors de cette étape une réaction chimique a lieu au niveau de la paroi extérieure du nanotube. Des liaisons C − C sont cassées et il y a formation de groupement carboxyliques [82]. Lors de la deuxième étape les nanotubes traités par HN O3 sont soumis à un reflux de H2 O2 [83, 84], afin d’éliminer les débris formés pendant le traitement acide ainsi que les autres espèces carbonées. La figure 2.3.9
est une image prise
au CEA-Saclay
par
microscop
ie
é
lectronique par transmission (TEM)
du produit brut de la synthèse des nanotubes V90. On observe bien la présence des nanotubes (agrégés en cordes), mais aussi la présence de petites particules de catalyseurs enrobées de carbone amorphe. Nous observons sur l’image 2.3.10, qu’après les deux étapes de purification, il ne reste pratiquement plus que des nanotubes de carbone. Cependant, on voit que les nanotubes sont encore partiellement agrégés en cordes. D’autre part, comme nous le disions au début de cette partie, un des enjeux de l’étape de purification est de réussir à ne pas endommager les nanotubes. L’image 2.3.11 représente un agrandissement de la surface d’une corde de nanotubes V90 ayant subi les deux étapes de purification. Du point de vue de la géométrie externe, cette image prouve que les nanotubes n’ont pas été fortement endommagés par 68
CHAPITRE 2. ECHANTILLONS ET PROTOCOLES EXPÉRIMENTAUX
l’étape de purification. Cependant, les nanotubes présentent tout de même des défauts. Ces défauts sont des groupements carboxyles qui se sont formés lors de la rupture de liaisons C-C. Ils ont été estimés à environ 3% en masse [82]. 2.3.3 Dépôt des nanotubes de carbone sur un substrat
Afin d’effectuer des mesures optiques, nous avons déposé les nanotubes de carbone sur différents substrats tels qu’une lame de microscope, une lamelle de saphir ou une lame de quartz suprasil. Ce type d’échantillon permet d’effectuer des études en transmission (spectres d’absorption, expériences pompe-sonde etc...). Il permet aussi de pouvoir effectuer des expériences à très basse température (jusqu’à 4K). Nous avons utilisé le quartz suprasil et le saphir pour leur grande transparence optique de l’ultraviolet à l’infrarouge. Cette propriété nous permet d’effectuer des spectres d’absorption de (0, 5 eV à 6, 2 eV). Ceci est nécessaire pour avoir accès au plasmon des nanotubes (autour de 5 eV) et aux transitions inter bandes des nanotubes semi-conducteurs (autour de 0, 8 eV) (voir chapitre 3).
Méthode de dépôt
Pour effectuer le dépôt, nous opérons avec des nanotubes en suspension dans un solvant relativement volatil, le méthanol, l’éthanol, ou le N-Méthyl-Pyrrolidone (NMP). L’éthanol et le méthanol sont les solvants dans lesquels nous recevions les nanotubes achetés à Tubes@rice. Suivant les échantillons que nous recevions, le solvant changeait, mais aucune explication n’était donnée pour justifier ce changement. Le NMP est le solvant utilisé par l’équipe MERL de Motorola pour la mise en suspension des nanotubes. La suspension de nanotubes est soumise à un traitement aux ultrasons afin de l’homogénéiser (∼ 10 minutes à faible puissance). Ensuite, la suspension est injectée dans un pulvérisateur de contenance 2 mL (figure : 2.3.12). Le substrat est disposé sur une résistance chauffante afin de le porter à une température érieure à la température d’ébullition du solvant utilisé (65o C pour le méthanol, 78o C pour l’éthanol et 202o C pour le NMP). La suspension de nanotubes est alors pulvérisée sur le substrat. Au contact du substrat, le solvant s’évapore, les nanotubes se déposent et restent accrochés au substrat. Losqu’on observe l’échantillon par transparence, on voit un dépôt grisâtre. Une caractérisation à l’aide d’un AFM (Atomic Force Microscope), montre que ce type de dépôts donne des films de nanotubes d’une épaisseur d’environ 50 nm et que les nanotubes y sont agrégés en cordes. Ce type de film de nanotubes est constitué d’ilôts de nanotubes concentrés et d’espaces vides.
2.3. PRÉPARATION DES ÉCHANTILLONS
Dépôts de 69
Pulvérisateur nanotubes + Suspension de nanotubes Substrat Résistance chauffante
Fig. 2.3.12 – Schéma de principe de la méthode de dépôt des nanotubes.
2.3.4 Mise en suspension
L’éthanol et le méthanol ne permettent pas une bonne mise en suspension des nanotubes, dans le sens où les nanotubes restent agrégés en cordes, ce qui fait qu’il est impossible d’observer un signal de photoluminescence sur ces échantillons (voir ref. [41], et chapitres 3 et 4). Afin d’effectuer des expériences de photoluminescence, nous avons effectué des mises en suspension plus élaborées qui nous permettent d’avoir des nanotubes isolés les uns des autres. Pour ce faire, nous avons utilisé deux types de solvants : D2 O + SDS (eau lourde plus un surfactant très commun(SDS)) et le N-Méthyl-Pyrolyidonne (NMP). On utilise l’eau lourde plutôt que l’eau pour des raisons de transparence dans l’infrarouge. Mise en micelles Afin d’isoler les nanotubes les uns des autres, nous les avons placés dans des micelles (agrégat colloïdal de molécules amphiphiles (surfactant)). L’objectif de l’expérience est d’obtenir une suspension de nanotubes où chaque nanotube est isolé dans une micelle et où il ne reste pas de cordes de nanotubes. Pour ce faire, nous nous sommes largement inspirés de la méthode décrite dans la référence [41]. Le solvant utilisé est l’eau lourde (D2 O). Pour former des micelles, on ajoute 1% en masse de sodium dodécyl sulfate (SDS). On ajoute les nanotubes de carbone afin d’obtenir une concentration de l’ordre de 0, 1 mg.mL−1. La suspension est placée dans un bain à ultrasons durant 3h30. Le traitement aux ultrasons permet 70
CHAPITRE 2. ECHANTILLONS ET PROTOCOLES EXPÉRIMENTAUX de séparer les nanotubes les uns des autres et permet la formation des micelles. La
Fig. 2.3.13 – Nanotubes inclus dans des micelles. A)Nanotube unique dans une micelle B)Corde de nanotubes dans une micelle. La masse volumique d’un nanotube unique dans une micelle est de ∼ 1 g.cm−3. Celle d’une corde de nanotubes dans une micelle est de ∼ 1, 2 g.cm−3 [41]. suspension
contient
alors
des
nanotubes unique
s
isolés dans une micelle
, ainsi que des cordes de nanotubes
isolées dans
une micelle (
figure 2.3.13)
. D’autre part, si nous travaillons avec le matériau brut, la suspension contient aussi des particules de catalyseurs et du carbone amorphe. Un nanotube unique dans une micelle a une masse volumique de ∼ 1 g.cm−3 alors qu’une corde de nanotubes dans une micelle a une masse volumique de ∼ 1, 2 g.cm−3. Les particules de catalyseurs ont des masses volumiques comprises entre 2 g.cm−3 et 3 g.cm−3. Ces masses volumiques ont été obtenues à l’aide de simulations de dynamique moléculaire [41, 85–87]. La suspension est alors soumise à une étape de centrifugation, afin de séparer les micelles contenant un nanotube unique des autres constituants. Les micelles contenant un nanotube unique se trouvent dans la partie haute du tube de centrifugation. L’étape de centrifugation se fait à 122000 g et pendant 4h00 comme décrit dans la référence [41]. A la fin de l’étape de centrifugation, les 200 premiers microlitres sont prélevés (sur un volume de 1 mL). On doit obtenir alors une suspension ne contenant que des nanotubes uniques inclus dans une micelle (figure 2.3.13 A). Les suspensions ainsi obtenues sont très stables.
2.3. PRÉPARATION DES ÉCHANTILLONS 71
Nous n’observons pas de floculation avant plusieurs semaines voire plusieurs mois. Cependant, il est difficile, avec les moyens dont nous disposons, de caractériser précisément les échantillons. En particulier, il est impossible d’affirmer qu’il ne reste plus aucune corde de nanotubes dans la suspension, ou même d’autres constituants. Nous verrons cependant au chapitre 3 que l’existence d’un signal de photoluminescence est un moyen efficace de caractérisation. Mise en suspension dans le NMP Une autre possibilité consiste à remplacer le mélange D2 O + SDS par le NMéthyl-Pyrrolidone (NMP). Nous utilisons le NMP car ce solvant organique est connu comme étant un bon solvant pour les nanotubes [80], même si à l’heure actuelle, aucune étude n’explique pourquoi les nanotubes se mettent facilement en suspension dans le NMP et pas dans d’autres solvants organiques. En effet, d’autres solvants organiques ayant a priori les mêmes caractéristiques que le NMP sont nettement moins efficaces pour réaliser des suspensions de nanotubes.
Fig. 2.3.14 – Image AFM de nanotubes V90 déposés sur un substrat en silicium après mise en suspension dans le NMP. L’objectif est le même que pour la mise en suspension dans D2 O + SDS ; il
72 CHAPITRE 2. ECHANTILLONS ET PROTOCOLES EXPÉRIMENTAUX
s’agit d’obtenir une suspension de nanotubes de carbone uniques isolés les uns des autres. On ajoute une quantité de nanotubes telle que la concentration finale soit de l’ordre de 0, 1 mg.mL−1. La suspension est ensuite placée durant 9h dans un bain à ultrasons à faible puissance. Nous pouvons caractériser la suspension en effectuant un dépôt sur un substrat de silicium et faire une image AFM du dépôt. Cela nous permet de contrôler que la mise en suspension dans le NMP donne naissance à des échantillons essentiellement constitués de nanotubes isolés les uns des autres (image 2.3.14). Afin de supprimer les éventuelles cordes de nanotubes restantes, nous effectuons une étape de centrifugation à 30000 g durant 4h00. La mise en suspension des nanotubes dans le NMP est relativement stable, mais moins que dans D2 O − SDS, puisqu’on voit apparaître une floculation au bout de quelques jours ou de quelques semaines. 2.3.5 Film de nanotubes en matrice polymère
Nous avons vu précédemment que lorsque les nanotubes de carbone sont déposés en grande quantité sur un substrat, ils s’agrègent en cordes lorsque (pour des dépôts de quelques centaines de nanotubes sur un substrat en silicium, la faible densité de nanotubes fait qu’ils peuvent rester séparés les uns des autres, voir image 2.3.14). La mise en suspension permet d’obtenir des nanotubes isolés mais présente un inconvénient notable : il est impossible de faire des études à basse température. C’est pourquoi nous avons travaillé à la conception de films de nanotubes en matrice polymère. L’objectif était d’obtenir un film solide dans lequel les nanotubes seraient isolés les uns des autres. Pour ce faire, nous avons travaillé à partir des suspensions de nanotubes dans D2 O − SDS et nous les avons polymérisées à l’aide du Poly-Vinyl-Pyrrolidone (PVP). Nous plaçons la suspension de nanotubes dans un bain à ultrasons à faible puissance et nous ajoutons le PVP au fur et à mesure jusqu’à obtenir un gel. Ce gel est ensuite déposé sur un substrat de quartz suprasil. Lorsque le solvant s’est évaporé, nous obtenons un film de nanotubes dans une matrice polymère. Cependant, les films réalisés sont très fragiles. Il serait donc intéressant de faire une étude de ce type de films en fonction du pourcentage en masse de PVP ajouté à la suspension. 2.3.6 Conclusion
Dans cette partie, nous avons décrit la fabrication des différents types d’échantillons que nous avons étudiés durant cette thèse. Nous avons d’abord décrit l’étape de purification des nanotubes issus de la méthode de synthèse par ablation laser et ses conséquences en terme de création de défauts. Nous avons décrit la mise en suspension des nanotubes dans différents solvants afin d’obtenir des suspensions contenant essentiellement des nanotubes isolés. Enfin, nous avons vu 2.4. CONCLUSION 73 qu’il était possible d’inclure ces nanotubes dans une matrice polymère. Les propriétés optiques de ces différents échantillons sont présentées dans les chapitres 3 et 4.
2.4 Conclusion
Dans ce chapitre, nous avons détaillé les différentes techniques expérimentales utilisées durant cette thèse pour étudier les propriétés optiques des nanotubes de carbone. Nous avons également décrit les différents types d’échantillons dont les propriétés optiques sont étudiées dans les chapitres 3 et 4. Des études plus poussées sur la fabrication d’échantillons spécialement conçus pour l’étude des propriétés optiques semblent néanmoins nécessaires. Notamment, il serait intéressant de fabriquer des échantillons spécifiques pour les études sur nanotubes uniques, comme par exemple des échantillons de nanotubes suspendus entre deux plots [88], ou des échantillons de nanotubes inclus dans une matrice polymère avec une densité de nanotubes suffisamment petite pour étudier un nanotube unique. 74
CHAPITRE 2. ECHANTILLONS ET PROTOCOLES EXPÉRIMENTAUX Chapitre 3 Spectroscopie d’absorption et de photoluminescence 3.1 Introduction
De nombreuses études expérimentales ont permis de confirmer les principales prévisions théoriques concernant les propriétés électroniques des nanotubes de carbone. Ces études ont utilisé des techniques très différentes telles que le STM [18], le transport [89], les spectroscopies Raman [40, 47, 90], EELS [34], ou d’absorption [35]. La comparaison de ces différentes méthodes a montré que la spectroscopie d’absorption est un outil de caractérisation des nanotubes de carbone puissant et facile à mettre en oeuvre, malgré le fort caractère inhomogène des transitions optiques observées. Cet outil est d’autant plus important qu’à l’heure actuelle, il est difficile de contrôler les différents paramètres structuraux des nanotubes lors de la synthèse. Nous nous servirons donc de la spectroscopie d’absorption comme d’un moyen de caractérisation de nos échantillons, cette technique permettant notamment d’obtenir la distribution en diamètre des échantillons étudiés. En revanche, les premières observations d’un signal de photoluminescence au niveau du gap des nanotubes semi-conducteurs sont très récentes [41, 88]. Ces observations ouvrent de nouveaux horizons pour l’étude des nanotubes de carbone et de leur environnement. Nous verrons ici que nous avons réussi à observer ce signal de photoluminescence sur différents types de nanotubes. Une étude des différentes conditions dans lesquelles il est possible d’observer ce signal nous a permis de mettre à jour les paramètres environnementaux qui déterminent la capacité d’un nanotube à émettre de la lumière. 75 76
3.2 3.2.1 CHAPITRE 3. ABSORPTION ET PHOTOLUMINESCENCE Spectroscopie d’absorption Introduction
La spectroscopie d’absorption est un outil puissant de caractérisation des échantillons de nanotubes de carbone. Les chercheurs qui travaillent sur la synthèse des nanotubes de carbone utilisent souvent cette technique de spectroscopie pour évaluer rapidement le diamètre moyen des échantillons, la largeur de la distribution en diamètre, ainsi que l’abondance des différents types de nanotubes [35]. Dans cette partie, nous exposerons tout d’abord les caractéristiques générales d’un spectre d’absorption de nanotubes de carbone. Nous détaillerons ensuite les caractéristiques des spectres d’absorption de nos différents échantillons (nanotubes déposés, nanotubes en suspension etc...).
3.2.2 Caractéristiques générales
Le spectre d’absorption des nanotubes de carbone V90 (fabriqués par ablation laser, voir chapitre 2 partie 2.2.2) est représenté sur la figure 3.2.1. Ce spectre d’absorption a été effectué sur un échantillon de nanotubes pulvérisés sur un substrat de saphir, qui présente une grande transparence du proche UV (6, 5 eV) au proche IR (0, 5 eV). Ces spectres d’absorption sont effectués à l’aide d’un spectrophotomètre à deux voies (voir chapitre 2 partie 2.3.3) entre 0,5 et 6,5 eV à température ambiante. Concentrons-nous tout d’abord sur la partie basse énergie (0,5 eV 2 eV). Dans cette région nous observons trois raies superposées à un fond d’absorption important (80% de la densité optique à 1, 4 eV). D’après les règles de sélection définies dans le chapitre 1, la raie centrée à 0,77 eV (S1 ) est attribuée à la transition entre la première paire de singularités de Van Hove des nanotubes semi-conducteurs. De même, la seconde raie centrée à 1,37 eV (S2 ) correspond à la transition entre la seconde paire de singularités de Van-Hove dans les nanotubes semi-conducteurs. Enfin, la raie centrée à 2 eV (M1 ) est attribuée en majorité à la transition entre la première paire de singularités de Van-Hove dans les nanotubes métalliques, ainsi qu’à la transition entre la troisème paire de singularités de Van-Hove dans les nanotubes semi-conducteurs (voir figure 3.2.2) [34].
| 51,361
|
26/tel.archives-ouvertes.fr-tel-00737165-document.txt_23
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 7,631
| 11,394
|
422 versant, la notion de Vallée de la Drôme est plus accessible au grand public et se rapproche davantage des réalités vécues, en tant que regroupement de communes. Elle souffre cependant d'un déficit identitaire (chapitre 3) que le projet de gestion de l'eau tente de combler. Figure 75 : Périmètre du SAGE Drôme (1997) et du 2nd Contrat de Rivière (1999)
Le pilotage de l'élaboration du 2nd Contrat de Rivière par la structure intercommunale du Val de Drôme
Le bureau de la CLE choisit de former le nouveau Comité rivière à partir de la CLE du SAGE Drôme auquel est adjoint un représentant du sous bassin versant du Haut Roubion (le président du Syndicat Intercommunal des berges du Roubion). Son président est également le président de la CLE. De même, à partir de mi 1998, « le bureau de la CLE [devient] en même temps le comité de pilotage du [2nd] Contrat de Rivière » (compte-rendu du bureau de la CLE du 07/10/1998). Comme dans le cas du 1er Contrat de Rivière, les dossiers de la mise en oeuvre du SAGE sont donc traités au sein du même système d'action et dans les mêmes réunions que ceux de l'élaboration et de la mise en oeuvre du 2nd Contrat de Rivière, sous le pilotage étroit du président de la structure intercommunale du Val de Drôme et de son équipe technique du service rivière. « C'est vrai qu'il y a une fusion entre l'outil de planification et l'outil opérant. Nous, par exemple, on n'a pas de Comité rivière, qui est censé être le comité de pilotage du Contrat de Rivière. Ce sont les élus de la structure intercommunale du Val de Drôme et de la CLE qui font le pilotage. C'est quand même un format à part et il y a vraiment une fusion entre SAGE et Contrat de Rivière. C'est intéressant parce que ce sont les mêmes qui ont décidé de la règle qu'ils se sont fixés qui définissent les outils pour y arriver » (un technicien, entretien personnel, été 2008)
LA TERRITORIALISATION DE LA POLITIQUE EAU EST ELLE AGE ? PARTIE III - Le bassin versant comme territoire de projet de la gestion de l'eau (1994-2006)
Le projet du 2nd Contrat de Rivière est élaboré par le bureau de la CLE très rapidement, en quelques mois, à l'automne 1997. Sa rédaction est confiée au directeur adjoint de la structure intercommunale du Val de Drôme, également chargé de l'animation et du suivi du 1er Contrat de Rivière et du projet de SAGE. Pour ce faire, il s'appuie sur les propositions des études IRAP en matière d'assainissement et d'aménagement. 2.1.2. Une signature qui tarde, révélant des dissensions entre élus locaux (janvier 1998 – mai 1999)
Le projet de 2nd Contrat de Rivière, validé en CLE puis en Comité d'agrément en janvier 1998, n'est signé qu'un an et demi après, en mai 1999. Si son élaboration a été rapide, sa signature prend cependant plus de temps en raison de la longue négociation sur le dispositif de gestion de rivière entre les structures intercommunales du Val de Drôme, du Diois et le SMRD346. La signature du 2nd Contrat de Rivière est également retardée en raison d'un désaccord politique entre la structure intercommunale du Val de Drôme et la commune de Crest. Comme les autres communes du bassin versant, la ville de Crest fait l'objet d'un diagnostic et de propositions d'actions en matière d'assainissement et d'aménagement de rivière par le bureau d'étude IRAP en 1997. Malgré des relances et faute de retour sur ces propositions d'action, la structure intercommunale du Val de Drôme, qui pilote le Contrat de Rivière, les considèrent comme définitives en mai 1998, afin de finaliser le montage financier et opérationnel du 2nd Contrat de Rivière. Mais le 11/06/1998, faisant fi du calendrier et du protocole instaurés par la structure intercommunale du Val de Drôme, la mairie de Crest vote en Conseil Municipal une proposition d'action en matière d'assainissement et d'aménagement de rivière bien plus importante et coûteuse que celle de l'étude IRAP (15 MF contre les 2 MF). Insatisfait par sa non prise en compte dans la programmation du 2nd Contrat de Rivière, le maire de Crest également Conseiller Régional, bloque la validation du Contrat par le Conseil Régional et force la structure intercommunale à en modifier son contenu. Un « complément d'étude » est ainsi réalisé par l'IRAP en 424 Le projet de Contrat de Rivière de janvier 1998 est affiné par un groupe de travail réduit, comprenant des techniciens des deux structures intercommunales du Val de Drome et du Diois, de la Région, du Département et des administrations (MISE, DIREN, Agence) lors de « réunions techniques » (les 02/02, 03/03 et 09/04/1998). Les réflexions sont ensuite menées directement au sein du bureau de la CLE (bureaux des 05/05 et 24/07/1998). Ces réflexions portent les maîtrises d'ouvrage et les plans de financement des différentes opérations pré , ainsi que sur la convention de partage des responsabilités concernant l'animation et la coordination des dispositifs de SAGE et de Contrat de Rivière. La place et le rôle du SMRD : le modèle de la gestion de l'eau questionné
Le point central de dissension concerne la place et le rôle du SMRD et questionne le modèle de gestion de l'eau souhaitée. La question est abordée dans trois arènes différentes, durant toute l'année 1998 et le début de l'année 1999 : le Comité syndical du SMRD, le bureau de la CLE, faisant office de comité de pilotage du Contrat de Rivière, et les séances du Conseil Général, regroupant toutes un certain nombre d'élus dirigeants en commun347. Les deux positions qui s'opposent, en matière de gouvernance, sont ainsi résumées par les acteurs locaux : « s'appuyer sur les structures intercommunales de développement qui avaient porté le premier Contrat de Rivière ou bien susciter l'émergence d'une structure spécialisée rivière, compétente sur l'ensemble du bassin versant par la restructuration du SMRD » (District d'Aménagement du Val de Drôme et al., 2002). Trois scénarios sont envisagés et discutés. Le premier scénario consiste en la dissolution du SMRD et la répartition des compétences de la gestion de l'eau entre les communes et les intercommunalités. Le deuxième scénario envisage d'étendre la compétence territoriale du SMRD à l'ensemble du linéaire hydrographique de la Drôme et de son principal affluent, le Bez, ainsi et sa compétence thématique à l'entretien du lit et des berges, en substitution des structures intercommunales qui en ont pris la charge348. Le troisième scénario prévoit l'extension du SMRD à l'ensemble du bassin versant ainsi qu'une prise de responsabilité sur tous les aspects de la gestion de l'eau. Il formerait alors la « communauté locale de l'eau » prévue dans la Loi sur l'eau de 1992 (compte-rendu du de la CLE du 23/01/1998)). Les élus communaux intercommunaux et départementaux s'entendent au minimum sur le deuxième scénario, où les structures intercommunales conservent une certaine autonomie en matière de gestion de l'eau, tout en cédant une partie de leurs compétences. Les élus doivent cependant encore s'accorder sur la nature et l'étendue des compétences transférées au SMRD et des moyens d'action qui vont avec. Le débat est relancé avec le changement de présidence du SMRD mi-1998. Le président de la CLE souhaite confier au SMRD la maîtrise d'ouvrage de l'observatoire de la rivière ainsi que l'étude sur les digues et conserver aux structures intercommunales la responsabilité des opérations d'entretien de rivière. PARTIE III -
Le bassin versant comme territoire de projet de la gestion de l'eau (1994-2006) comme inscrite dans ses statuts de 1980, à savoir la maîtrise d'ouvrage des études mais aussi des travaux d'entretien et d'aménagement de rivière. Il est favorable à la création d'une équipe d'entretien propre au SMRD et est disposé à prendre en charge les travaux concernant les digues. Il est par contre réticent à assurer la maîtrise d'ouvrage de l'observatoire de la rivière Drôme (Compte-rendu du SMRD du 28/11/1997 et de la CLE du 18/03/1999). Ce positionnement ne fait cependant pas l'unanimité des conseillers généraux, membres du SMRD. Nombre d'entre eux s'opposent en particulier à la prise de compétence en matière d'entretien des digues en raison des coûts induits. Le Conseil Général ne se prononce donc pas clairement sur l'évolution statutaire du SMRD. De fait, les discussions entre le bureau de la CLE et le SMRD restent au point mort jusqu'au début 1999, malgré une réunion bipartite en octobre 1998 et des courriers de relance du bureau de la CLE auprès du SMRD (compterendu du bureau du 28/11/1998). Les craintes de la structure intercommunale du Diois
La structure intercommunale du Diois affiche une position réservée sur la répartition des responsabilités telle que rédigée dans la convention concernant l'animation et la coordination des dispositifs de SAGE et de Contrat de Rivière en 1997. D'une part, la structure intercommunale du Diois critique, diplomatiquement, l'hégémonie des prises de décision de la structure intercommunale du Val de Drôme et le manque de transparence et d'information : « la diffusion régulière des informations que vous pouvez avoir sur cette question ainsi que des réflexions communes avant les prises de position nous permettront certainement d'avancer en ce sens ». Elle marque sa « volonté réelle de [s'] impliquer », mais sans se sentir forcer la main : « Il faut encore discuter du système adéquat. En effet la gestion de la rivière reste une démarche progressive dans laquelle chacun des acteurs doit trouver sa place en fonction de ses compétences et moyens » (lettre du 29/09/1998 de la structure intercommunale du Diois à la CLE). D'autre part, la structure intercommunale du Diois souhaite garder le contrôle des engagements financiers induits par la contractualisation. Elle demande en particulier d'être associée au dispositif de suivi et de gestion du Fonds Intercommunal d'Investissement et à l'instance de programmation décidant des engagements de crédits. Ce souhait de maîtrise du budget est réitéré dans une lettre du 26/01/1999 : la structure intercommunale du Diois souhaite une attribution directe des subventions, sans passer par la structure intercommunale du Val de Drôme (comme lors du 1er Contrat de Rivière). « Sur le précédent Contrat de Rivière, [la structure intercommunale du Val de Drôme] récupérait 5% sur les subventions attribuées par la Région pour financer la gestion du contrat et ça a été mal vécu. Ca permettait de faire vivre structure mais c'était ça en moins pour le territoire. Ce n'est pas un contentieux, mais c'est l'impression qu'on ne veut pas se faire bouffer. Au final, cette indécision sur l'avenir du SMRD retarde la signature du Contrat de Rivière, faute d'accord sur une convention de partage des responsabilités349. L'Agence de l'Eau conditionne alors son approbation du 2nd Contrat de Rivière, ainsi que le déblocage des financements correspondant, à la ratification de cette convention. Les structures intercommunales du Val de Drôme et du Diois et le SMRD sont contraintes d'arrêter un choix. La « convention de mise en oeuvre du Contrat de Rivière Drôme et Haut Roubion et du SAGE », ratifiée le 13/04/1999 (Encadré 46) consacre le partage des responsabilités et des missions entre les trois parties. A défaut de trancher sur la question politique du rôle et de la place du SMRD, elle résout de manière pragmatique et technique les problèmes très concrets de la maîtrise d'ouvrage des différentes opérations du Contrat de Rivière. 2.2. Le 2nd Contrat de Rivière: le recentrage sur la logique d'aménagement du territoire (1999)
Après différents ajustements de son programme d'action (bureaux de la CLE des 06/01 et 07/04/1999), le 2nd Contrat de Rivière Drôme et Haut Roubion est signé le 12/05/1999 à Lucen-Diois par les structures intercommunales du Val de Drôme, du Diois et du Haut-Roubion, le SMRD, les Conseils Général et Régional, l'Agence de l'Eau et le Préfet de la Drôme pour une durée de 7 ans (1999-2005). Le 2nd Contrat de Rivière comprend quatre volets d'action. Les objectifs définis sont inégalement pertinents et ambitieux au regard des orientations du SAGE. Si les deux priorités que sont la gestion quantitative et la gestion physique sont traduites en objectifs opérationnels dans des volets d'action dédiés, l'enjeu de préservation des milieux naturels est par contre partiellement traité, essentiellement sur le volet de la qualité baignade des eaux superficielles. La structure intercommunale du Val de Drôme prend à nouveau le contrôle du dispositif de 2nd Contrat de Rivière en plus de l'animation du SAGE, au détriment du SMRD dont l'avenir est toujours en débat. 2.2.1. Les objectifs du 2nd Contrat de Rivière Drôme et HautRoubion : le recentrage sur la satisfaction des usages
Le 2nd Contrat de Rivière est pensé comme l'outil opérationnel du SAGE, mais sa rédaction révèle une traduction partielle et tronquée des orientations du SAGE350. Il définit trois objectifs généraux : (i) «améliorer la qualité des eaux pour retrouver la qualité 1A en amont de Crest et sur le Haut-Roubion, et la qualité 1B en aval de Crest » ; (ii) « restaurer, mettre en valeur et gérer les potentialités naturelles des cours d'eau, gérer la ressource en eau, restaurer les équilibres morphologiques » et (iii) « aboutir à la mise en place d'une gestion permanente du périmètre dans une logique de développement durable » (District 349 En attendant une décision officielle, entre décembre 1997 et avril 1999, la structure intercommunale du Val de Drôme pilote et coordonne le dispositif de suivi et mise en oeuvre du SAGE, en accueillant et en encadrant la grande majorité de son personnel, même si il est employé pour partie par l'intermédiaire du SMRD. 350 Rappel des orientations générales du SAGE : « Permettre la restauration d'un fonctionnement naturel des rivières ; Poursuivre l'amélioration de la qualité des eaux à la hauteur des exigences des usages et des milieux ; Préserver et restaurer les milieux aquatiques remarquables ; Oeuvrer pour une prévention efficace des risques ; Penser la gestion de l'eau en terme d'aménagement du territoire ; Renforcer la gestion globale et concertée de l'eau à l'échelle du bassin versant » (Commission Locale de l'Eau et al., 1997). 427 PARTIE III - Le bassin versant comme territoire de projet de la gestion de l'eau (1994-2006) d'Aménagement du Val de Drôme et District Rural de Développement du Diois, 1999). Il
déc
line
ces objectifs en 4 volets d'action : « volet A : amélioration de la qualité des eaux » ; « volet B : restauration et mise en valeur de cours d'eau » ; « volet C : coordination,
gestion
et communication
»
; « volet
D : gestion de
ressource
en eau ».
Cette
formul
ation des
object
ifs et
vol
ets
d'
action
conforte
et
accentu
e la hiérarchisation des enjeux du SAGE. La priorité est accordée aux questions d'assainissement/baignabilité, d'entretien et d'aménagement des cours d'eau et de gestion quantitative de la ressource. La répartition prévisionnelle du budget confirme cette hiérarchisation des objectifs (Figure 76 ; ANNEXE 2.7). volet C : coordination, gestion, communica tion 13% volet D : gestion des ressources en eau 10% volet B : restauration et mise en valeur 10% ENSEMBLE DES VOLETS volet B : mise en valeur touristique 43% volet A: assainissement 67% VOLET C volet C : gestion des sites naturels 2% volet C : observatoire 20% VOLET B volet B : protection contre les crues 5% VOLET D volet C : information & sensibilisation 12% volet C : dispositif de coordination et entretien 66% volet B : restauration de berges 52% volet D : état des lieux & protocole de gestion 2% volet D : retenue des juanons 98%
Figure 76 : Répartition du budget prévisionnel du 2nd Contrat de Rivière Drôme et Haut Roubion selon les quatre volets d'action (source : (District d'Aménagement du Val de Drôme et District Rural de Développement du Diois, 1999)
Le volet A : la priorité à l'assainissement dans la poursuite du 1er Contrat de Rivière
Le « volet A : amélioration de la qualité des eaux » concentre 67 % du budget prévisionnel. Il est centré sur la poursuite des efforts du 1er Contrat de Rivière en matière d'assainissement. L'objectif est, conformément à celui du SAGE, l'obtention de la qualité 1A ou 1B sur l'ensemble des cours d'eau par la lutte contre les pollutions d'origine domestique : 77 428 opérations classées en 3 niveaux d'urgence pour 145 MF, ce qui constituent 72% du budget prévisionnel total du contrat (District d'Aménagement du Val de Drôme et District Rural de Développement du Diois, 1999). La priorité est donnée à la résorption des points noirs, et en particulier ceux de Luc-en-Diois et Chatillon-en-Diois, et au cas des petites communes à l'habitat dispersé. Ce volet s'appuie en ment sur les propositions du bureau d'étude IRAP de fin 1997, discutées et validées auprès des élus locaux, puis par la CLE, qui ont ensuite été affinées début 1998. Elles ont donné lieu à la rédaction de plannings et de descriptifs techniques et financiers des différentes opérations, objets d'un rapport annexé au Contrat de Rivière (IRAP, 1998 a). Le volet B : une visée toujours très aménagiste
Le « volet B : restauration et mise en valeur de cours d'eau » est également issu des propositions du bureau d'étude IRAP de fin 1997, affinées en 1998 par la CLE. Il est l'objet de deux rapports annexés au Contrat de Rivière, l'un sur la restauration et l'entretien, et l'autre sur la restauration et mise en valeur des cours d'eau (IRAP et al., 1998a, 1998b, 1998c). Il constitue 10 % du budget prévisionnel du Contrat et comprend trois sous-volets : « B1 : restauration et entretien du lit et des berges ; B2 : protection contre les crues et B3 : mise en valeur des milieux » (Figure 76). Le volet B1 consiste à poursuivre le dispositif d'entretien de la végétation, du lit et de berges, mis en place dans le 1er Contrat de Rivière et à expérimenter de nouvelles pratiques de gestion du transit sédimentaire, telles que prescrites dans l'étude du Pf Bravard. Le volet B2 concerne la protection contre les inondations. Inexistant dans le précédent Contrat de Rivière, il n'est que faiblement développé. Il consiste en la réalisation d'une étude diagnostic sur les digues (état, enjeu, proposition d'action) et en la mise en oeuvre de dispositifs d'alerte de crues dans les campings en zones inondables. Ces deux actions correspondent aux exigences du Comité de Bassin Rhône Méditerranée Corse lors de l'approbation du projet de Contrat. Le volet B3 vise la mise en valeur des milieux aquatiques « dans l'optique d'un tourisme vert que la région s'attache globalement à développer ». Il privilégie des « aménagements légers » en vue « de la sauvegarde d'un patrimoine naturel exceptionnel qui suscite justement la fréquentation ique ». Un équilibre est recherché entre la préservation des milieux et leur valorisation économique par le biais du tourisme. Les opérations de préservation des milieux sont cependant traitées dans le volet C du Contrat de Rivière. Les actions de ce volet B3 consistent en la mise en valeur de sites de baignade ou de loisirs aux abords des cours d'eau, en des acquisitions foncières en vue de ces aménagements touristiques et en des aménagements piscicoles351. Le volet C : des actions centrales pour la mise en oeuvre du modèle territorial de la gestion de l'eau à l'échelle de la vallée
Le « volet C : coordination, gestion et communication » correspond à la mise en oeuvre opérationnelle du dispositif de suivi et de mise en oeuvre du SAGE. S'il ne représente que 8% 351 Les intitulés exacts des opérations sont « aménagements piscicoles, managements de sentiers, aménagements de pistes cyclables, aménagements d'accès et d'aires de repos ou d'arrêt, traitement paysager, résorption de décharge ou dépôt de voiture, signalétique, sanitaires, aménagements de baignade, aménagements de parcours de pêche, passerelle, aménagements urbains ». PARTIE III - Le bassin versant comme territoire de projet de la gestion de l'eau (1994-2006) du montant total prévisionnel du Contrat de Rivière, il en conditionne pour autant la réussite. Il concerne : - la mise en oeuvre du « dispositif de suivi du SAGE, de coordination de bassin et d'animation du Contrat de Rivière », dont le fonctionnement représente 5% du montant total du Contrat (et 66 % du volet C) ; - des actions de sensibilisation des acteurs locaux et de la population (pour un budget équivalent à 13% du volet C) : la réalisation d'un film sur l'élaboration du SAGE, un « programme d'intervention pédagogique », un « plan de communication », « l'augmentation de la diffusion de la lettre Inf'Eau » et la « création de petits événements » ; - la création et mise en place d'un observatoire de la rivière, comme « outil cohérent d'observation et d'évaluation (pour 21% du volet C). Ce dernier porte à la fois sur les aspects quantitatifs et qualitatifs des eaux de surface et souterraine, ainsi que sur l'état des lits et berges de la rivière et sur la biodiversité352. Il s'appuie sur les réseaux de données existants (de la DIREN et du Conseil Général), sur l'installation de nouveaux équipements (stations hydrométriques et piézométriques) ainsi que sur la réalisation d'études de suivi des milieux et des espèces aquatiques. L'« observatoire de la rivière et de la biodiversité » constitue la « grande nouveauté du Contrat de Rivière seconde formule » (Inf'Eau n°13, 03/1998). Il est à la fois innovant et ambitieux en visant : (i) le rassemblement et l'exploitation des multiples données éparses auprès des différents gestionnaires, concernant tant l'état du milieu, les usages et les actions de gestion, et (ii) la mise à disposition de ces informations aux membres de la CLE, mais aussi du grand public, sous la forme de bases de données informatisées, et ce dans la mesure du possible, « en temps réel ». L'objectif est de « pouvoir suivre et évaluer l'ensemble de décisions pris dans le cadre du SAGE » (bureau du 07/04/1999). Cette acquisition et diffusion de l'information sont appuyées par la création d'un Système d'Information Géographique. La mise en image de l'information facilite sa lecture et son analyse. Deux techniciens sont recrutés pour assurer sa mise en oeuvre353. Le volet C aborde également l'enjeu de préservation des milieux naturels, mais les actions qu'il propose sont réduites et peu ambitieuses. Dans la suite du SAGE, le 2nd Contrat de Rivière confirme, que malgré la reconnaissance de la richesse et de la qualité de ce « patrimoine naturel », il ne constitue pas une priorité d'action. Outre les études sur les inventaires et le fonctionnement naturel des milieux dans le cadre de l'observatoire de la 352 L'objectif portant sur l'observatoire prévoit l'acquisition et la gestion de données sur : (i) « l'eau :quantité, qualité, qualité des rejets de STEP, suivi des nappes, utilisation agricole de la ressource » ; (ii) « lit et berges : relevé topographiques de l'évolution du lit, suivi des plans de gestion morphodynamique » ; (iii) biodiversité : suivi des milieux : cartographie des habitats, placettes botaniques de suivi de la dynamique forestière, relevés botaniques des zones humides annexes ; suivi des espèces (oiseaux, castors, poisson et écrevisses, odonates et faune benthique) : campagne de suivi, cartographie » (District d'Aménagement du Val de Drôme et District Rural de Développement du Diois, 1999). 430 rivière, le 2nd Contrat de Rivière prévoit l'élaboration de plans de gestion pour les 35 sites remarquables identifiés dans l'étude Michelot et inscrits dans le SAGE. « Tous ne justifient pas une approche lourde » est-il cependant précisé. Ces plans sont donc pris en charge « dans le cadre de l'animation du SAGE » et ne bénéficient que d'un budget réduit (équivalent à 2% du volet C)354. La FRAPNA est toujours étroitement associée par la structure intercommunale du Val de Drôme au 2nd Contrat de Rivière. Elle se voit confier les missions de : (i) sensibilisation des techniciens (Etat et collectivités locales) à la prise en compte du milieu dans les opérations d'entretien et d'aménagement de rivière (volet B), (ii) de sensibilisation du grand public, et (ii) de montage de l'observatoire de la biodiversité (volet C). Le volet D : une attention particulière à la gestion quantitative, enjeu prioritaire du SAGE
Le « volet D : gestion de ressource en eau » est dédié à l'atteinte des objectifs du SAGE en matière quantitative : « le gel des surfaces irriguées et la mobilisation des 2 Mm3 de ressource supplémentaire » ainsi que la gestion des situations de crises. Il constitue 10% du budget total prévisionnel du Contrat de Rivière. Il comprend trois actions : (i) la réalisation d'un « état des lieux de l'irrigation » afin de respecter l'objectif du gel des surfaces irriguées ; le suivi des débits étant par ailleurs prévu dans l'observatoire du volet C ; (ii) la création d'un « protocole de gestion de la ressource » afin de respecter l'objectif du débit réservé ; (iii) la réalisation d' « ouvrages de mobilisation de la ressource » (District d'Aménagement du Val de Drôme et District Rural de Développement du Diois, 1999). Ces deux premières actions représentent un investissement modeste (2% du volet D), mais constituent un enjeu majeur pour l'atteinte des objectifs du SAGE. Concernant la troisième action, deux ouvrages de stockage en eau sont mentionnés : celui des Trois Vernes et celui des Juanons. Leurs financements ne sont cependant pas acquis au jour de signature du Contrat de Rivière et seul l'ouvrage des Juanons, dont le plan financier est plus avancé, est inclus dans le budget prévisionnel (pour 98% du budget du volet D soit 16,8 MF)355. La possibilité d'un avenant ultérieur est mentionnée pour l'autre ouvrage. En conclusion, le 2nd Contrat de Rivière traduit bien les objectifs principaux du SAGE concernant la restauration de la qualité baignade de la rivière, la gestion quantitative agricole de l'eau et la régulation du transit sédimentaire. Les préconisations du Bravard sont prises en compte dans le volet B du Contrat de Rivière et les différents objectifs de la gestion quantitative sont traduits de manière pertinente en modalités opérationnelles dans le volet D. Ils traduisent la recherche d'un équilibre entre la satisfaction des usages et la préservation des milieux. Par ailleurs, la mise en oeuvre d'un observatoire de la rivière constitue une avancée majeure en termes de responsabilisation et d'instruction de l'efficacité environnementale, par la mesure et le contrôle des pratiques et de l'état du milieu et la diffusion de l'information. PARTIE III -
Le bassin versant comme territoire de projet de la
gestion
de l'eau
(1994-2006
) faiblement traduits en modalités opérationnelles dans le 2nd Contrat de Rivière. Leur formulation accentue la faible intégration des problématiques de la gestion de l'eau, déjà apparente dans le SAGE : (i) entre l'entretien des rivières et la protection contre les inondations ; (ii) entre la préservation des milieux naturels et leur valorisation touristique.
2.2.2. La concentration des pouvoirs de décision et d'action de la structure intercommunale du Val de Drôme
Les modifications de la gouvernance de la politique locale de l'eau induites par la ratification de la « convention de mise en oeuvre du Contrat de Rivière Drôme et Haut Roubion et du SAGE » de 1999 sont entérinées par l'édition du « livre du SAGE » en 2002 (District d'Aménagement du Val de Drôme et al., 2002). Elles traduisent la concentration des pouvoirs de décisions et d'action en matière de gestion de l'eau par la structure intercommunale du Val de Drôme. Cette position dominante est accentuée par la reprise en main de la gestion de la réserve naturelle des Ramières en 1999. La structure intercommunale du Val de Drôme au coeur des dispositifs d'information, de décision et d'action du 2nd Contrat de Rivière
La « convention de mise en oeuvre du Contrat de Rivière Drôme et Haut Roubion et du SAGE », signée le 13/04/1999 définit le contenu et le fonctionnement du « dispositif de suivi du SAGE, de coordination de bassin et d'animation du Contrat de Rivière »356. Ce dernier vise à organiser le pilotage, l'encadrement et la coordination de l'ensemble des actions sur le bassin versant et la réalisation de certaines interventions d'entretien des rivières (des berges, du lit, des petits aménagements). La convention précise les compétences, les rôles, les tâches de chaque collectivité locale (communes, structures intercommunales et SMRD) pour l'animation, la mise en oeuvre et le suivi à la fois du SAGE et du 2nd Contrat de Rivière. Elle précise les moyens techniques et humains ainsi que les modalités et les volumes de financements envisagés (Encadré 46). La structure intercommunale du Val de Drôme est au coeur de ce dispositif, dont elle porte la maîtrise d'ouvrage. Elle est chargée du suivi comptable des opérations du Contrat et accueille et encadre, à une exception prés, l'ensemble du personnel recruté pour l'animation du SAGE et la mise en oeuvre du Contrat : le responsable de bassin, 1,5 des 2 ETP de techniciens rivières, l'équipe rivière, le technicien observatoire. Elle concentre ainsi les moyens de connaissance, par le biais de l'observatoire, et d'action, par le biais de la cellule financière et des postes de techniciens rivière, de la gestion locale de l'eau. 432 répartition des tâches. Outre l'animation de la CLE, le pilotage du 2nd Contrat de Rivière, l'encadrement de l'équipe du dispositif de suivi des deux démarches, la structure intercommunale porte également la réalisation de la plupart des opérations du Contrat de Rivière : toutes celles concernant l'observatoire de la rivière et la gestion des ressources quantitatives (volet C et D), mise à part la réalisation des ouvrages sous maîtrise d'oeuvre des syndicats d'irrigation. Concernant les volets A et B, les communes portent chacune leur projet d'assainissement et les structures intercommunales du Diois et du Val de Drôme assurent chacune la maîtrise d'ouvrage des opérations d'aménagement de rivière sur leur territoires respectifs. Par conventionnement, les structures intercommunales du Crestois et du pays de Saillans peuvent déléguer cette maîtrise d'ouvrage à l'une ou l'autre des deux autres structures intercommunales. Ce choix de la maîtrise d'ouvrage confirme la prééminence de la logique territoriale sur celle strictement hydrologique. Le SMRD porte une seule opération, l'étude diagnostic des digues. Le Conseil Général s'engage également à porter une étude sur l'eau potable (District d'Aménagement du Val de Drôme et District Rural de Développement du Diois, 1999). Le dispositif de « suivi du SAGE, de coordination de bassin et d'animation du Contrat de Rivière » définit la « méthode de travail () pour permettre une gestion globale de la rivière sur l'ensemble du bassin versant en relation avec les actions de développement local ». Il vise 4 objectifs : « la mise en oeuvre et le suivi du SAGE, la mise en oeuvre et le suivi de l'observatoire de la rivière, le pilotage, l'encadrement et la coordination des opérations d'entretien de rivière et la présence sur le terrain, la surveillance ». A propos de la gestion de la rivière et de l'eau, « sur l'amont, on a toujours plutôt été à la remorque d'initiatives qui venaient de l'aval » (un technicien du Diois, entretien personnel, 2008). La gestion de l'eau n'est pas pour la structure intercommunale du Diois un enjeu déterminant. Elle centre ses efforts sur les opérations d'assainissement et d'entretien et de valorisation touristique des rivières, pour lesquelles le Contrat offre d'intéressantes opportunités financières. L'analyse de la presse locale du Diois (sur la période 1997-2006) montre d'ailleurs que la communication sur le 2nd Contrat de Rivière est exclusivement centrée sur ces deux volets (A et B) (Encadré 54, p.478). La reprise en main de la Réserve des Ramières par la structure intercommunale du Val de Drôme
La réserve des Ramières est gérée depuis sa création par un Comité de Gestion au sein duquel la FRAPNA est majoritaire et assure la présidence (chapitre 4). En 1999, après une période conflictuelle, la structure intercommunale du Val de Drôme reprend en main le pilotage de la gestion de la réserve. Elle assoit ainsi son pouvoir de décision et d'action sur la gestion locale de l'eau, la réserve constituant un haut lieu de la gestion patrimoniale de la rivière Drôme. Suite aux élections municipales de 1995, un rapport de force s'instaure au sein du Comité de Gestion de la réserve des Ramières, entre les élus des communes riveraines de la réserve (Allex, Eurre, Chabrillan), appuyés par l'association des usagers de la réserve (l'ADPUR) et les représentants de la FRAPNA. Les premiers se plaignent de la prise en compte insuffisante de leurs usages et pratiques traditionnelles (la chasse, la pêche, les prélèvements d'eau) dans la gestion de la réserve telle que menée par la FRAPNA, en raison du mode de gouvernance existant. Ils critiquent « l'absence de transparence et de rigueur dans la gestion financière » du Comité de Gestion et surtout dénoncent que « nombre de questions importantes sont réglées en comité restreint dont les usagers sont complètement exclus». « La réserve est à ce jour gérée majoritairement par un groupe intégriste, sectaire, ne faisant preuve d'aucune rigueur de gestion et qui a pour seul objectif de promouvoir son idéologie en bénéficiant largement de l'argent public sans se soucier des collectivités locales et de leurs représentants » expliquent-ils au Préfet (Le Crestois, 12/07/1996). En décembre 1996, les élus quittent le Comité de Gestion, et, en em chant l'atteinte du quorum, bloquent toute prise de décision. La réserve des Ramières est contrainte de fermer son accueil du public. La FRAPNA dénonce au Préfet de « cette attitude blocage » des élus communaux. Le Préfet demande un rapport sur le fonctionnement de la réserve à la DDAF, qui ne révèle aucune anomalie comptable grave. Le président de la structure intercommunale du Val de Drôme se saisit alors du dossier et se présente en médiateur. Il propose que la structure intercommunale du Val de Drôme prenne en charge la gestion de la réserve an associant les populations locales, les écoles et les associations à travers la signature d'une « charte de gestion de la réserve ». La FRAPNA refuse ce schéma qui reviendrait à l'exclure ou à la marginaliser dans le dispositif de décision. Le Préfet organise la médiation entre les différentes parties prenantes par la formation d'un groupe de travail restreint et l'organisation de réunions (17/09/1997 et 23/10/1997 et 16/12/1997). L'accord trouvé en mars 1998 consiste en la dévolution de la gestion de la Réserve à la structure intercommunale du Val de Drôme. Un nouveau comité de pilotage est constitué (une « commission pluripartite »), associant 20 personnes en 4 collèges : 5 maires des communes riveraines ; 5 représentants de la structure intercommunale du val de Drôme, 5 représentants des usagers (ADPUR, chasseurs, pêcheurs, agriculteurs et tourisme), et 5 représentants des associations naturalistes, sous la présidence de la structure intercommunale du Val de Drôme. La FRAPNA se voit confier l'animation d'un comité scientifique consultatif (Le Crestois, 29/08 et 05/09/1997 et 26/09/1997 et 19/12/1997 ; 06/02 et 13/03/1998)357. La réserve naturelle rouvre ses portes au public en mars 1998, et une nouvelle convention entre l'Etat et la structure intercommunale du Val de Drôme pour la gestion de la réserve des Ramières est signée début 1999, lui confiant la réserve pour 4 ans. 2.3. Conclusion : le modèle de la gestion territoriale de l'eau de la vallée de la Drome conforté mais
fragil
e
Ouvrière principale de l'élaboration
puis de la
mise en
oeuvre du 2nd Contrat de
Rivière, la structure intercommunale du Val de Drôme conforte à travers ce dispositif le modèle la gestion territoriale de l'eau de la vallée de la Drôme proposé dans le SAGE, tout en l'ajustant. Elle établit tout d'abord un lien très étroit entre les Contrats de Rivière et le SAGE, qu'elle qualifie de « synergie fructueuse » (District d'Aménagement du Val de Drôme et District Rural de Développement du Diois, 1999). Le SAGE est présenté comme en filiation du 1er Contrat de Rivière Drôme et Haut-Roubion, dont il a bénéficié des acquis : il « a fourni le cadre opérationnel d'une approche beaucoup plus globale de la rivière et a permis à la CLE de mener l'élaboration du SAGE dans une démarche associant la réflexion et l'action ». Le 2nd Contrat de Rivière Drôme et Haut-Roubion, préparé et rédigé en parallèle de l'élaboration du SAGE, est ensuite conçu comme son outil de mise en oeuvre. Il «vient non seulement conforter et développer les acquis en matière d'assainissement, d'aménagement et d'entretien des rivières, mais également constituer l'outil opérationnel de mise en oeuvre des préconisations du SAGE » (District d'Aménagement du Val de Drôme et al., 1997). Le lancement de l'élaboration du 2nd Contrat est ainsi l'occasion, à de multiples reprises, de conforter le récit mythifié du SAGE. A l'image du SAGE, il est présenté comme « un outil de gestion équilibrée de la rivière mais aussi un outil de développement local que ce soit au 357 « Cette commission donne son avis sur les actions de gestion courante de réserve et élabore des propositions d'actions pour les services de l'Etat. Ce travail préparatoire permet généralement de trouver des solutions consensuelles par anticipation des débats de la réunion annuelle du 'comité consultatif' qui est présidé par le Préfet de la Drôme » (Communauté de Communes du Val de Drôme, 2006). 435 PARTIE III - Le bassin versant comme territoire de projet de la gestion de l'eau (1994-2006) niveau du tourisme, de la valorisation des sites phares, de l'économie, de l'agriculture » (présidente de la structure intercommunale du Diois, le Journal du Diois, 21/05/1999).
Il
renforce
l'idée du SAGE selon laquelle la préservation de qualité et diversité des milieux naturels associés à la rivière contribue à la
construction
identitaire du territoire, elle-même participant d'une stratégie de développement touristique. On peut ainsi lire dans la presse locale à propos de l'élaboration du 2nd Contrat de Rivière : « la loi le dit désormais : l'eau est un patrimoine commun (). Puisque nous sommes tous un peu propriétaire et beaucoup responsables la rivière Drôme, faisons en sorte qu'elle reste propre et qu'elle devienne chaque jour un peu plus un atout économique et touriste pour notre vallée de la Drôme » (Le Crestois, 14/05/1999). A propos du volet B, le bureau de la CLE écrit : « de ce volet dépend l'excellence de l'image de la Drôme et de ses affluents : toutes les études de clientèle démontrent en effet que la qualité du milieu naturel est un élément déterminant du choix des touristes pour notre région. Et la rivière en est l'épine dorsale » (Inf'Eau n° 15, 11/1998). Au-delà de ces discours, l'analyse du contenu du 2nd Contrat de Rivière, montre cependant une certaine adaptation de ce modèle territorial, dans lequel les enjeux de préservation environnementale et de leur valorisation touristique ne disposent que de moyens réduits, en comparaison avec les opérations d'assainissement, d'entretien de la végétation du lit et des berges ou d'augmentation des ressources en eau pour l'irrigation. Le programme de sensibilisation et d'éducation l'environnement ainsi que la création de l'observatoire de la rivière et de la biodiversité constituent toutefois des objectifs pertinents en matière environnementale, en ce qu'ils forment des outils stratégiques importants de la transformation des pratiques des usagers. Si la structure intercommunale du Val de Drôme consolide et conforte son modèle territorial de la gestion de l'eau dans le cadre de l'élaboration du 2nd Contrat de Rivière, en raison de la concentration des pouvoirs de décision et d'action, cette prééminence est cependant objet de controverses. 3. Le 2nd Contrat de Rivière Drôme et Haut-Roubion : la mise à l'épreuve du modèle de la gestion territoriale de l'eau (1999-2006)
Le SAGE Drôme (1997) puis le 2nd Contrat de Rivière Drôme et Haut-Roubion (1999) instaurent un modèle de gestion territoriale de l'eau à l'échelle de la Vallée de la Drôme. Ces deux démarches sont coordonnées et pilotées par la structure intercommunale du Val de Drôme, qui assure la présidence de la CLE, confondue avec le Comité rivière, et qui prend en charge le suivi technique, administratif et financier des opérations. Sa position dominante et sa stratégie territoriale sont cependant contestées par certains élus et usagers dès l'élaboration du SAGE. Ces contestations se diversifient et s'amplifient progressivement. La mise en oeuvre du 2nd Contrat de Rivière constitue une mise à l'épreuve des capacités de la structure intercommunale du Val de Drôme à animer et coordonner la gestion de l'eau selon son modèle territorial, couplant la construction d'un territoire de l'eau à l'échelle de la vallée de la Drôme et l'articulation des champs d'action économique et environnemental. La mise en oeuvre opérationnelle du 2nd Contrat de Rivière commence en fait dès la fin 1998, après l'acceptation des montages financiers par l'Agence de l'Eau et la Région358. Un avenant au Contrat de Rivière est réfléchi tout au long de l'année 2003 entre le bureau de la CLE et les communes participantes, en vue de la réaffectation des crédits prévus sur les opérations non engagées à cette date vers de nouvelles opérations (bureau du 14/01/2004) Il est signé en mars 2004. Le 2nd Contrat de Rivière arrive à échéance mi 2006. La CLE commandite alors une étude bilan du SAGE et du 2nd Contrat de Rivière est remise début 2007 (Asconit consultants et al., 2007). Le modèle de la gestion territoriale de l'eau à l'échelle de la vallée de la Drôme, même contesté, contribue-t-il à un gain d'efficacité environnemental de la gestion de l'eau? Comment est-il mobilisé par la CLE et son bureau pour transformer la gestion effective de l'eau et in fine l'état des ressources en milieux aquatiques? L'analyse de la mise en oeuvre du 2nd Contrat de Rivière, entre 1999 et 2005, comprend quatre parties. C'est le cas de certaines opérations d'assainissement et d'entretien des berges et du lit de la rivière, des actions d'animation pédagogique auprès des scolaires et de communication (telle la réalisation d'un film, « Le souci du SAGE », produit en juin 1998) ainsi que du lancement des études sur l'observatoire de la rivière et l'élaboration du protocole de partage de l'eau en matière quantitative. Les projets de retenues d'eau des agriculteurs progressent également avant la signature du 2nd Contrat de Rivière.
PARTIE III - Le bassin versant comme territoire de projet de la gestion de l'eau (1994-2006)
Dans un deuxième temps, est mise en évidence la fragilité de la construction territoriale de la vallée de la Drôme ainsi que la consolidation progressive d'autres territorialités portées par différents groupes d'usagers de l'eau. Dans un troisième temps, la contribution de la gestion territoriale de l'eau au gain d'efficacité environnementale est analysée. La contestation du modèle territorial de la gestion intentionnelle rend difficile l'activation de ressorts territoriaux, ce qui explique pour partie les avancées environnementales partielles et limitées. Enfin, dans un dernier temps, l'évolution du système d'action de la gestion de l'eau et de son modèle territorial est décrite. Les alliances tissées entre la structure intercommunale et les différents participants de la CLE du SAGE se distendent. Dans le même temps, le SMRD s'organise et se restructure en vue de reprendre en main la gouvernance locale de l'eau. Il propose un nouveau modèle territorial, centré sur le périmètre hydrographique et le seul champ d'action de la gestion environnementale. Début 2007, la structure intercommunale du Val de Drôme cède le pilotage de la gestion locale de l'eau au SMRD. 3.1. L'évaluation du 2nd Contrat de Rivière Drôme et HautRoubion : des avancées environnementales incontestables mais partielles
L'étude bilan du SAGE Drôme et du 2nd Contrat de Rivière Drôme et Haut-Roubion débute le 31/03/2006, après une petite année d'élaboration du cahier des charges et de choix des bureaux d'étude au sein de la CLE (de juin 2005 à mars 2006). Ses objectifs concernent à la fois (i) un bilan des ressources et des milieux aquatiques, des actions et des procédures ainsi que de leurs résultats et impacts et (ii) la formulation de recommandations et de préconisations en vue de poursuivre les démarches opérationnelles de la gestion locale de l'eau. Trois bureaux d'étude sont choisis : Géoplus pour les aspects techniques, Asconit pour les aspects de développement territorial et de gestion de l'eau et Contrechamp pour une approche sociologique basée sur les perceptions des acteurs (Asconit consultants et al., 2007). Par ailleurs, en 2005, le SAGE Drôme constitue un cas d'étude de l'évaluation des politiques d'intervention de l'Agence de l'Eau Rhône Méditerranée Corse concernant « les démarches de gestion quantitative concertée de la ressource en eau », mené par le bureau d'étude AScA (AScA et AERMC, 2005). L'évaluation du 2nd Contrat de Rivière s'appuie sur ces études ainsi que sur l'analyse de la presse locale, des comptes-rendus de réunions de la CLE et de son bureau et sur les entretiens menés auprès de leurs participants (été 2008, 2009 et 2010). Malgré une intense activité de concertation, les gains environnementaux du 2nd Contrat de Rivière restent partiels et limités. L'hypothèse que ce défaut d'instruction de l'efficacité environnementale signe la faiblesse de la construction d'un territo pour l'eau à l'échelle de la vallée de la Drôme est alors avancée. 3.1.1. La difficile évaluation du SAGE Drôme et du 2nd Contrat de Rivière Drôme et Haut-Roubion
Contrairement au 1er Contrat de Rivière, l'évaluation est anticipée dans la rédaction du SAGE et du 2nd Contrat de Rivière. Avec la création de l'observatoire de la rivière et de la biodiversité, il est prévu la mise en place d'un dispositif de suivi. Il présente cependant deux écueils, compliquant l'évaluation de l'efficacité du SAGE et du 2nd Contrat de Rivière. D'une part, les absences de définitions claires et chiffrées des objectifs et des indicateurs de suivi ne permettent pas une comparaison des résultats aux objectifs. D'autre part, les difficultés rencontrées lors de la mise en oeuvre de l'observatoire de la rivière Drôme conduisent à un manque de données sur l'état des ressources en eau des milieux aquatiques et des pratiques et usages de ceux-ci. Ces éléments témoignent d'un défaut d'instruction de l'efficacité environnementale du SAGE et du 2nd Contrat de Rivière, lui-même révélateur de la difficile construction territoriale pour la gestion de l'eau.
| 51,974
|
63/pastel.archives-ouvertes.fr-tel-01924513-document.txt_4
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 8,163
| 13,687
|
2.4.1.3 Résultats bruts des observations
Le scan résultant comporte 1000 images de 1600 × 1600 pixels pour une taille de voxel de ∼1,1 μm. Autrement dit, cette technique nous permet d'observer la matière comprise dans un volume cubique de 1,76 mm de côté. A titre d'information, un scan représente une taille de ∼2,5 Go sur un disque dur. Les figures 2.35 et 2.36 illustrent cinq images extraites à partir de la séquence d'images brutes obtenue après reconstruction. Ces cinq sections se situent dans des plans parallèles au substrat, et montrent une succession de coupes transverses du matériau à différentes hauteurs, depuis la surface supérieure de la puce jusqu'à l'interface du joint brasé avec le substrat. Nous pouvons observer sur la première section figure 2.35(a) un exemple d'artefact résiduel de type « anneau » au centre de l'image. Ce type d'artefact peut être gênant dans le cadre du post traitement par analyse d'image. Cependant dans notre cas on constate que l'artefact perd en intensité à mesure que l'on se rapproche de la zone d'intérêt : en effet il n'est quasiment plus visible dans les sections réalisées au niveau du joint brasé figure 2.35(c), 2.35(d) et 2.35(e). Sur ces dernières, nous pouvons d'emblée observer l'hétérogénéité de la porosité dans l'épaisseur du joint (les pores apparaissent comme des zones sombres dans les images). De plus, on semble observer aussi une rugosité non négligeable sur la figure 2.35(c) au niveau de la surface libre du joint brasé. La rugosité d'une surface impactant énormément la tenue mécanique en fatigue d'un matériau, on voit apparaître ici un défaut qu'il s'agirait de quantifier. Une section brute perpendiculaire au substrat est ensuite présent sur la figure 2.37, permettant à nouveau de distinguer certaines porosités. Nous pouvons constater cependant que les différents constituants de l'échantillon, à savoir la puce, le joint brasé, le substrat et l'air ambiant, sont très peu contrastées. En effet, on peine à différencier par exemple le substrat en cuivre de l'air ambiant sur cette image. En réalité nous sommes très éloignés du cas idéal où chaque phase observée serait caractérisée par un seul niveau de gris, qui la définirait de manière unique. Ceci rendra relativement difficile le processus de définition des frontières entre les différents objets, i.e. la segmentation d'image. 2.4.1.4 Segmentation d'image 3D Porosité
La segmentation d'une image consiste à partitionner son domaine de définition en différentes régions créées en rassemblant des pixels entre eux suivant des critères pré-définis. Il est ensuite possible d'effectuer des mesures sur les régions ainsi repérées. Ainsi, c'est grâce à la coopération de plusieurs outils et techniques d'analyse d'images disponibles dans le logiciel 52
2.4. Caractérisation de la microstructure de l'alliage Sn-Ag-Cu-Sb-X
(a
) Coupe transverse
de l'échantillon T0 parall
èle au substrat
(∆z ∼ 350 μm) (b) Coupe transverse de l'échantillon T0 parallèle au substrat (∆z ∼ 240 μm) (c) Coupe transverse de l'échantillon T0 parallèle au substrat (∆z ∼ 102 μm) Figure 2.35 – Images brutes provenant de la reconstruction de la zone D de l'échantillon T0. Laminographie X - ESRF. 53 2. Caractérisation microstructurale des joints après assemblage (d) Coupe transverse de l'échantillon T0 parallèle au substrat (∆z ∼ 47 μm) (e) Coupe transverse de l'échantillon T0 au niveau de l'interface avec le substrat (z = 0 μm) Figure 2.36 – Images brutes provenant de la reconstruction de la zone D de l'échantillon T0. Laminographie X - ESRF. Figure 2.37 – Coupe transverse brute de l'échantillon T0 dans un plan perpendiculaire au substrat montrant la superposition de la puce, du joint brasé poreux et du leadframe. Les artefacts sont sous forme de paraboles dans ce plan. Laminographie X - ESRF. 2.4. Caractérisation de la microstructure de l'alliage Sn-Ag-Cu-Sb-X
ImageJ et la librairie SMIL 7 que nous avons exploité les images brutes reconstituées afin de quantifier la porosité au sein de l'échantillon T0. La méthode mise en place afin de traiter les images 3D est décrite en annexe C. La figure 2.38(a) montre ainsi une visualisation en 3D du résultat obtenu après segmentation des pores présents au sein du joint brasé. (a) Pores contenus au sein du joint brasé (b) Surface libre du joint brasé
Figure 2.38 – Rendu 3D des pores et des surfaces libres de l'échantillon T0. Surfaces libres
La même méthode fut employée afin de pouvoir visualiser la surface de la puce ainsi que la surface libre du joint brasé illustrée figure 2.38(b). La segmentation de ces surfaces libres a nécessité une adaptation de la méthode, également résumée en annexe C. Au sein de cette partie exploratoire, l'un des intérêts majeurs en ce qui concerne la segmentation des surfaces libres des joints brasés est l'étude quantitative de leur rugosité, dont l'impact sur la durée de vie pourrait ensuite être quantifié après vieillissement thermomécanique. Il se trouve que les différentes contraintes de dimensions géométriques des échantillons de modules de puissance sont incompatibles avec la mesure non destructive directe de la rugosité au profilomètre ainsi qu'à l'AFM 8, d'où l'intérêt potentiel des scans en laminographie 3D. En réalité cependant, selon l'échantillon observé, on constate qu'au sein de certaines sections parallèles au substrat, la frontière entre l'air ambiant et le joint brasé est complètement « effacée », ce qui doit empêcher logiquement la détermination de cette frontière par analyse d'images. Cependant la technique d'analyse que nous employons établit une ligne de partage quel que soit le niveau de bruit à l'interface. La frontière obtenue est donc erronée. C'est pourquoi nous n'exploiterons pas les résultats quantitatifs de type rugosité provenant de la segmentation des surfaces libres des joints brasés telles que représentées par la figure 2.38(b).
2.4.1.5 Extraction des données quantitatives de la porosité
Ainsi, l'algorithme de segmentation a comptabilisé 972 pores au total dans la zone D de l'échantillon SACSbX post-assemblage (T0 ). Le joint brasé a une épaisseur locale d'environ 100 μm dans ce coin. Chaque pore a été sauvegardé individuellement au sein d'une base de données dans un fichier numérique contenant son label, sa représentation 3D, ainsi que différentes propriétés dimensionnelles et critères de morphologie. Cette base pourra servir notamment de futur guide de modélisation géométrique de porosité représentative pour d'éventuelles simulations de joints brasés poreux. Le tableau 2.13 rassemble certaines valeurs statistiques globales calculées pour ces critères. Ces derniers ont été choisis afin de pouvoir classer plus tard les pores dans différentes catégories représentatives. L'étape suivante consistera à évaluer l'effet de chaque type de pores sur la fiabilité des joints brasés. La première donnée est celle du volume V des pores. On calcule un volume total de porosité d'environ 4,6 × 106 μm3. Etant donnée la mesure du volume du joint brasé dans la zone scannée, on obtient alors une fraction volumique locale de porosité ∼ 3 %. Ainsi, dans ce cas de figure, la 7. Simple Morphological Image Library [FAE 14] 8. Atomic Force Microscope (AFM) 55 2. Caractérisation microstructurale des joints après assemblage
Tableau 2.13 – Mesures quantitatives de la porosité de l'échantillon T0 (972 pores). Mesure Moyenne Ecart-type Minimum Médiane Maximum 4337,2 22,8 7,4 4,5 0,7 31 814,2 38,0 11,2 5,3 0,2 2,7 0 1,1 0,8 0,1 101,8 0 3,3 2,8 0,7 697 469,3 101,2 102,3 55,0 1 V (μm3 ) Z0 (μm) H (μm) Req (μm)
Sph (sans unités) taux de porosité volumique correspond à peu près au taux de porosité surfacique moyen que l'on a obtenu grâce à l'analyse des microradiographies aux rayons X présentée en section 2.2.3. En réalité, nous verrons plus loin lors de l'analyse d'autres échantillons qu'en général, les taux de porosité surfaciques globaux ne sont pas égaux aux taux volumiques locaux. De manière logique, ces derniers dépendent énormément de la présence ou non de pores débouchants au sein de la zone d'analyse. Les autres critères du tableau 2.13 sont les suivants : - la position Z0 de la base du pore selon l'axe Z, avec Z0 = 0 μm correspondant à l'altitude de l'interface joint brasé/substrat, - la hauteur H de la porosité, - le rayon équivalent Req, - la sphéricité Sph, comprise entre 0 et 1, qui rend compte du caractère sphérique d'un pore. Ce critère est fonction de l'intersection du volume d'un pore avec sa sphère équivalente.
La figure 2.39(a) illustre par exemple la répartition
des volumes mesurés, sur laquelle on constate d'emblée l'existence de deux valeurs élevées, qui correspondent probablement à des pores débouchants. La figure 2.39(b) présente la répartition des rayons équivalents calculés à partir de ces volumes. Le rayon équivalent maximum vaut Req ∼ 55 μm. On constate alors que l'on est bien en dessous de ce qui était calculé à partir des microradiographies X au paragraphe 2.2.3, où le rayon équivalent maximum atteignait ∼ 900 μm. Il apparaît alors que les zones d'analyses observées à l'ESRF ne sont pas des volumes élémentaires représentatifs (VERs) des joints brasés en termes de porosité. (a) (b) Figure 2.40 – Histogrammes bidimensionnels montrant la répartition de la totalité des pores en fonction de leur rayon équivalent Req et de leur altitude par rapport au substrat Z0. L'échelle de couleur représente : (a) le nombre de pores, (b) la fraction volumique des pores. 2.4.1.6 Classification de la base de données
Quatre grandes classes ont été définies par itérations successives grâce aux critères exposés dans le tableau 2.14, que l'on a imposées afin de pouvoir sélectionner notamment d'une part les pores débouchants, et d'autre part les micro-pores. Ainsi, dans cet ordre, les pores de type débouchants sont d'abord catégorisés en « classe 1 ». Puis, les plus petites cavités sont rangées en « classe 2 » (Req < 2 μm). La discrimination en « classe 3 » s'applique ensuite aux pores qui restent, et concerne ceux dont la position Z0 est nulle. Enfin, la « classe 4 » rassemble les pores résiduels à l'issue des trois premières phases de tri. On peut voir dans la troisième colonne du tableau 2.14 le nombre de pores associés à chaque classe. Ainsi par exemple, on ne trouve que deux pores débouchants (classe 1) dans la partie du joint brasé analysée, labellisés par les numéros 131 et 147. Grâce à la création de cette base de données, il est ensuite possible de visualiser leur morphologie en 3D. La figure 2.41 illustre ainsi un exemple de rendu 3D de pore pour chacune des quatre classes définies. Une fois la classification réalisée, il est plus pertinent de comparer les valeurs des critères mesurés au sein d'une même classe. La figure 2.42 illustre ainsi les histogrammes bidimensionnels (Req,Z0 ) obtenus pour chacune des classes. Parmi les différentes observations possibles, on peut constater notamment sur la figure 2.42(d) que les pores de la classe 4 sont pour la majorité présents à l'interface puce/joint brasé, se rajoutant ainsi à la part de la porosité de classe 2 57
joints après assemblage
Tableau 2.14 – Définitions des classes et répartition des 972 pores de l'échantillon T0.
Classe Définition Nombre de pores par classe 1 2 3 4 H > Hmax − 10 μm Req <2 μm Z0 =0 μm complémentaire 2 375 440 155 (a) Classe 1 (c) Classe 3 (b) Classe 2 (d) Classe 4
Figure 2.41 – Visualisation de la morphologie de pores appartenant aux différentes classes définies. Pour chaque image, la norme des vecteurs X,Y et Z vaut 22 μm. 2.4. Caractérisation de la microstructure de l'alliage Sn-Ag-Cu-Sb-X
présente au même endroit. On montre alors que la zone à l'interface puce/brasure contient un certain nombre de pores après solidification. Or, nous savons que cette zone est aussi soumise à des concentrations de contraintes et de déformations qui ont lieu au cours du vieillissement thermomécanique du module de puissance. Il est probable que ces défauts, présents dès le brasage, soient à l'origine d'un amorçage de microfissures par un mécanisme de coalescence puis de propagation. Nous testerons cette hypothèse dans une étude de vieillissement non destructive de l'échantillon T0 dans le chapitre 3 au paragraphe 3.3.2.3. (a) Classe 1 (b)
Classe 2 (c) Classe 3 (d) Classe 4 Figure 2.42 – Comparaison par classe des histogrammes bidimensionnels montrant la répartition des pores en fonction de leur rayon équivalent Req et de la position Z0 de leur base par rapport au substrat. 2.4.1.7 Synthèse sur la porosité
Ces mesures par laminographie permettent donc de quantifier la porosité localement, dans un coin d'un joint brasé. Il est possible grâce à cette méthode de comparer certains critères entre différentes classes d'un même échantillon. Nous distinguons en effet quatre grandes classes, avec notamment les pores débouchants à forts rayons équivalents, et les pores de l'ordre du μm, dont certains peuvent se trouver dans les zones de concentrations de contraintes sous le coin de la puce, potentiellement dangereux pour la durée de vie du matériau. Nous pouvons de plus remarquer que le volume observé en laminographie par rayonnement synchrotron est loin d'être un volume élémentaire représentatif d'un joint brasé SACSbX postbrasage DLS en termes de porosité. En effet, d'autres analyses réalisées dans les coins d'échantillons différents montrent parfois l'absence totale de pores débouchants par exemple. D'autre part, la porosité issue du critère 2D appliqué aux microradiographies X montrent que le volume 59 2. Caractérisation microstructurale des joints après assemblage des macro-pores peut parfois atteindre jusqu'à l'ordre de grandeur même du volume de joint observé en laminographie X. Cette hétérogénéité de la porosité qui provient principalement de la variabilité du procédé d'assemblage DLS qualifie aussi certaines caractéristiques métallurgiques provenant des observations présentées en section 2.4.2. 2.4.2 2.4.2.1 Microstructure au sein du joint brasé Protocole de préparation des échantillons
On souhaite maintenant caractériser la brasure SACSbX de manière destructive, en coupe transverse par microscopie optique, MEB, microsonde, etc. Pour cela on réalise l'enrobage des échantillons dans une résine de type époxy transparente, dont la polymérisation se fait à 25°C pour ne pas échauffer les brasures pendant la prise. La séquence de polissage retenue est la suivante. On commence par un polissage de 5 minutes avec du papier SiC de grade 1 200. Après nettoyage à l'éthanol dans un bain à ultrasons (étape réalisée entre chaque nouveau drap), on procède au polissage de finition à l'aide d'un drap mou contenant une pâte diamantée de 3 μm, et ce jusqu'à la disparition à l'oeil nu des rayures sur la partie du substrat en cuivre. Il faut alors passer à un autre drap mou contenant de la pâte diamantée 1 μm (ou bien 0,5 μm). Enfin, la préparation se termine par quelques minutes d'attaque à l'OPS sur un drap spécifique.
2.4.2.2 Analyse des phases présentes Analyses semi-quantitatives
Plusieurs cartographies semi-quantitatives ont été réalisées par microsonde de Castaing sur des échantillons polis, en évitant les régions des joints brasés contenant un pore débouchant. La figure 2.43 illustre la localisation des éléments obtenue pour un joint brasé post-assemblage SACSbX. Ces cartographies semi-quantitatives rendent compte des hétérogénéités chimiques de la microstructure de solidification. Celle-ci est composée de dendrites β-(Sn,Sb) riches en étain et en antimoine. On constate aussi près de la puce la présence de précipités riches en cuivre et en nickel, ainsi que des précipités riches en moine. De plus, on observe un enrichissement en argent et en cuivre dans les espaces interdendritiques ainsi que des précipités riches en Ag dans ces zones. A ce stade, tout en restant en accord avec les résultats de la littérature, il est très probable que les différentes phases évoquées soient des IMCs binaires (Cu,Ni)-Sn et Ag-Sn (ou dérivés proches). On observe enfin au niveau des interfaces des couches d'IMCs riches en Cu et en Ni avec une couche continue à l'interface avec le substrat. L'analyse de la cartographie X de Ag figure 2.43(b) nous permet de mesurer un espacement moyen des bras dendritiques secondaires de l'ordre de λ2 ∼ 10 μm. premier lot reçu pendant la thèse, les phases riches en Sb présentées par la figure 2.45(a) n'ont quasiment pas été observées, malgré les différentes régions et échantillons analysés. Sur cette cartographie semi-quantitative réalisée sur un échantillon du deuxième lot par analyse dispersive en énergie 9 (EDS), nous pouvons voir la répartition de l'antimoine dans une région du joint brasé située à l'une des extrémités de la brasure. L'antimoine se concentre alors au sein de phases de dimensions importantes, à la morphologie se rapprochant du losange ou du carré, avec une aire moyenne calculée par analyse d'image de ∼ 414 μm2. Nous examinerons plus loin ces différences de morphologie d'intermétalliques riches en antimoine. De plus, sur la figure 2.45(b), nous pouvons observer l'image MEB de la région analysée en EDS, et constater que ces composés riches en Sb ne présentent quasiment aucun contraste avec la matrice d'étain (en images électrons rétrodiffusés). Cela complique leur identification, ce qui est aussi le cas en microscopie optique. On peut rappeler d'une part que l'étain et l'antimoine sont deux éléments qui se suivent dans la classification périodique des éléments, avec pour numéro atomique respectif 50 et 51. C'est aussi une des raisons pour laquelle on n'a pas réussi à les distinguer nettement de la matrice lors des observations par laminographie au rayonnement synchrotron (les numéros atomiques étant similaire, leur coefficient d'absorption aussi). Par contre, Ag et Sn peuvent être distingués plus facilement (à 3 numéros atomiques d'écart).
Diffraction des rayons X
La diffraction des rayons X (DRX) a été utilisée afin d'essayer de déterminer la nature des composés intermétalliques (IMCs) présents au sein de la matrice. Pour cela la puce a été polie mécaniquement parallèlement à sa surface supérieure jusqu'à atteindre le joint brasé. Dans cette étude nous avons utilisé l'anode en cuivre pour la production des rayons X. Sa raie Kα a pour longueur d'onde λKα = 0,1542 nm. La figure 2.46 montre le diffractogramme 9. Energy Dispersive X-ray Spectrometry (EDS) 61 2.
Caractéris
ation
microstructural
e
des joints après assemblage (a) (b) (c) Figure 2.44 – Observations MEB de la brasure SACSbX : (a) vue d'ensemble, (b) IMCs de grandes tailles (longueur mesurée ∼ 78 μm), (c) fort grandissement près d'une porosité révélant les intermétalliques Ag3 Sn d'aspect lamellaire. 2.4. Caractérisation de la microstructure de l'alliage Sn-Ag-Cu-Sb-X (
a
)
Cartographie
EDS (b) Image
rie
MEB (signal électrons rétrodiff
usés
) Figure 2.45 – Image MEB et cartographie semi-quantitative EDS de l'alliage SACSbX montrant les phases riches en antimoine dans une région à l'extrémité de la brasure. de rayons X associé à l'analyse d'un échantillon SACSbX post-brasage du deuxième lot. Les fiches de références des phases identifiées se trouvent en annexe A.4. Figure 2.46 – Diffractogramme de rayons X associé à l'analyse d'un joint brasé SACSbX postbrasage du deuxième lot.
Nous trouvons alors les pics caractéristiques de l'étain, du cuivre et du nickel, ainsi que ceux du binaire SbSn nommé « stistaite » et des pics de l'IMC Ag3 Sn. Le logiciel de traitement utilisé pour optimiser l'identification propose aussi d'associer certains pics au composé CuNiSb2, nommé « zlatogorite ». Cependant l'incertitude est grande concernant ce dernier, et les recherches bibliographiques menées sur les phases potentielles des joints brasés SACSbX ne laissent pas envisager la formation de ce type de précipités. En effet, on prévoit plutôt l'apparition de Cu6 Sn5 ou dérivés. Nous constatons d'autre part que les pics associés à l'étain sont d'une intensité très importante, ce qui est révélateur d'une texture cristallographique marquée que nous étudierons plus loin en 2.4.4. 63
2. Caractérisation microstructurale des joints après assemblage
On notera que la phase Sb2 Sn3 n'existe pas dans la base utilisée pour l'identification (nous rappelons d'ailleurs, comme précisé au paragraphe 2.3.3.1, que la structure cristalline du Sb2 Sn3 est encore inconnue à ce jour). Comme nous n'avons pas pu identifier d'intermétalliques binaires provenant des systèmes Cu-Sn et Ni-Sn avec la DRX, nous nous sommes tournés vers l'analyse quantitative réalisée en microsonde de Castaing afin de compléter cette première étude et d'identifier la nature des IMCs grâce à la détermination de leur composition chimique. Analyses quantitatives Nous avons ensuite utilisé la microanalyse X par microsonde de Castaing en mode WDS 10 afin d'identifier chaque phase grâce à des profils de composition à travers les joints brasés ainsi qu'avec des pointés localisés. La figure 2.47 illustre ainsi les lieux de plusieurs pointés réalisés dans différentes phases présentes au sein du « corps » de deux joints brasés post-assemblage. Les tableaux 2.15 et 2.16 récapitulent les compositions, ainsi que la nature des intermétalliques ainsi identifiés. La microstructure post-assemblage des joints brasés SACSbX est donc composée des IMCs suivants : - l'IMC Sb2 Sn3 : les pointés 1, 2 et 3 illustrés par la figure 2.47(a) et les pointés 6, 7 et 8 présentés figure 2.47(b) sont localisés à l'intérieur des grandes phases riches en antimoine décrites précédemment. Elles ont une teneur en étain de 57 % at. pour 43 % at. (a) Pointés 1, 2, 3, 4 et 5 (b) Pointés 6, 7 et 8 (c) Pointé 19 Figure 2.47 – Observations MEB de deux régions analysées par WDS, chaque point rouge correspond à un pointé d'analyse.
Ainsi, il est très probable que les grosses phases riches en étain et en antimoine soient des composés Sb2 Sn3 si l'on se réfère au récent diagramme de phase de Okamoto [OKA 12] et aux teneurs mesurées par microsonde. Cependant, il pourrait s'agir aussi de β-SnSb comme le suggère les résultats de la DRX. Nous n'avons pas résolu la question. Par la suite, nous avons choisi de privilégier la première hypothèse et donc d'appeler les phases Sb2 Sn3. En réalisant systématiquement les observations au centre du joint brasé, ainsi qu'à ses extrémités, nous pouvions nous attendre à voir un effet de la position de la région d'intérêt sur la microstructure, qui serait lié à la solidification de l'alliage pendant le procédé d'assemblage au laser. Cependant nous n'avons pas trouvé de corrélation évidente entre les variations de la micro10.
2.4. Caractérisation de la microstructure de l'alliage Sn-Ag-Cu-Sb-X
Tableau
2.15 – Teneurs en éléments (en % at.) de phases de la brasure SACSbX post-assemblage. P Ni, at.% Sn, at.% Sb, at.% Cu, at.% wt. % Nature Pointé 1 Pointé 2 Pointé 3 Pointé 4 Pointé 5 Pointé 6 Pointé 7 Pointé 8 Pointé 19 Pointé 25 28,83 28,31 32,8 29,09 57,43 57,39 57,03 37,17 37,47 57,48 56,92 57,03 56,46 51,5 43,24 43,52 42,95 11,42 11,34 43,07 43,83 43,87 2,74 3,45 22,76 22, 8,24 16,09 100,33 100,24 100,71 99,58 99,41 100,06 100,52 100,39 99,61 100,5 Sb2 Sn3 Sb2 Sn3 Sb2 Sn3 (Cu,Ni)6 (Sn,Sb)5 (Cu,Ni)6 (Sn,Sb)5 Sb2 Sn3 Sb2 Sn3 Sb2 Sn3 (Ni,Cu)3 (Sn,Sb)4 (Ni,Cu)3 (Sn,Sb
)
4
Tableau 2.16 – Teneurs en éléments (en % at.) provenant d'un pointé extrait d'un profil de composition traversant un précipité à forte teneur en argent dans le corps de la brasure SACSbX.
P Ni, at.% Ag, at.% Sn, at.% Sb, at.% Cu, at.% wt. % Nature 0,25 48,38 44,51 6,7 0,24 100.26 Ag3 (Sn,Sb) structure (avec ou sans IMCs Sb2 Sn3, dendritique ou bien plutôt cellulaire, poreuse ou non, etc.) et l'emplacement de la région d'intérêt observée. Néanmoins, l'analyse fine de la microstructure reste intéressante pour la bonne compréhension du comportement mécanique du matériau dans la zone d'intérêt. 2.4.3 2.4.3.1 Microstructure aux interfaces Identification par microanalyse X
La microstructure des interfaces puce/brasure et brasure/substrat est observée au MEB (figure 2.49). L'ordre de grandeur des épaisseurs pour les interfaces de la SACSbX est de 3 μm après solidification. On constate que la morphologie des IMCs est très rugueuse. Les cartographies élémentaires réalisées à la microsonde ou à l'EDS nous permettent de montrer que pendant le brasage au laser, le cuivre contenu dans la brasure SACSbX est venu former des IMCs riches en cuivre et en nickel aux deux interfaces de la brasure (voir les cartographies chimiques correspondantes sur la figure 2.43). L'utilisation de microanalyse X en mode WDS (microsonde de Castaing) pour la détermination de la composition des intermétalliques aux interfaces doit être faite avec précaution. En effet, la taille de la sonde est au minimum de 1 μm, mais la zone réelle d'analyse dans la poire d'interaction pour l'émission X est supérieure à cette valeur. Or, les IMCs d'interface peuvent localement présenter une épaisseur inférieure au micron. Ainsi, la sonde se retrouve à cheval au minimum 65
2. Caractérisation microstructurale
des
joint
s après
assembl
age (a) Morphologies de l'IMC Sb2 Sn3 du premier lot (b) Morphologies de l'IMC Sb2 Sn3 du deuxième lot (c) Agrandissement de la zone en pointillée Figure 2.48 – Différentes morphologies du précipité Sb2 Sn3, dépendantes des paramètres employés pour braser les échantillons au DLS avec l'alliage SACSbX. (a) côté puce (b) côté substrat Figure 2.49 – Morphologie des interfaces après brasage. 2.4 aractérisation de la microstructure de l'alliage Sn-
Ag-Cu-Sb-X entre deux phases différentes. A partir de là, les calculs de concentrations selon la méthode « Phi rho Z » ne sont pas fidèles aux modèles (mono-élémentaires, parfaitement homogènes). Plusieurs profils ont néanmoins été réalisés au travers du joint brasé SACSbX pour quantifier la teneur en éléments des deux interfaces puce/brasure et brasure/substrat. Le pas de mesure est affiné en descendant à 1 μm pour essayer d'obtenir la composition des couches d'IMCs formées aux interfaces. La somme des pourcentages massiques mesurés est l'indicateur de qualité de la mesure, et doit tendre vers 100. Une valeur mesurée dans un IMC possédant un total supérieur à 102 ou inférieur à 98 invalide la qualité quantitative du pointé. Cela donne toutefois une bonne idée de la composition. Le tableau 2.17 présente le résultat de certains pointés obtenus au niveau des interfaces. Typiquement, on trouve côté substrat une superposition de trois couches d'IMCs. La « couche inférieure » correspond à la couche directement en contact avec le revêtement de Ni. Il s'agit de la phase (Ni,Cu)3 (Sn,Sb) (on pourra se reporter au diagramme de phases du système binaire Ni-Sn en annexe A). Il vient ensuite la superposition de deux couches que nous pouvons identifier comme étant les IMCs (Ni,Cu)3 (Sn,Sb)2 et (Ni,Cu)3 (Sn,Sb)4, ce dernier étant en contact avec le joint brasé. En ce qui concerne l'interface côté puce, on retrouve aussi l'IMCs (Ni,Cu)3 (Sn,Sb)4.
Tableau 2.17 – Teneurs en éléments (en % at.) des c
ouches d'intermétalliques superposées aux interfaces brasure/substrat et puce/brasure.
P Ni, at.% Sn, at.% Sb, at.% Cu, at.% wt. % Nature Côté puce IMC 1 IMC 1 bis Côté substrat 21,33 17,2 51,77 52,4 8,04 7,09 17,22 20,38 102,18 100,77 (Ni,Cu)3 (Sn,Sb)4 (Ni,Cu)3 (Sn,Sb)4 Couche supérieure Couche milieu Couche inférieure 25,07 41,87 64,33 49,2 36,3 21,3 7,15 6 4,23 18,47 15,77 10,17 99,44 98,73 98,47 (Ni,Cu)3 (Sn,Sb)4 (Ni,Cu)3 (Sn,Sb)2 (Ni,Cu)3 (Sn,Sb)
2.4.3.2 Hétérogénéité des interfaces
En continuant sur l'analyse des interfaces, on peut observer sur la figure 2.50(a) la présence de pores dans les couches d'intermétalliques côté substrat. Ces pores peuvent aussi être observés au sein des couches d'IMCs côté puce et pourraient être la manifestation de l'effet Kirkendall qui aurait eu le temps de se manifester lors du report DLS de puces. Ces pores sont donc présents dans le module de puissance dès le départ. (a) Formation des IMCs (b) Maturation des grains par interdiffusion du Ni et du Sn (c) Ecaillage des IMCs Figure 2.51 – Description schématique de l'exfoliation des IMCs [TEO 08].
2.4.4 Texture morphologique et cristallographique
Dans l'optique d'évaluer la texture des alliages SACSbX post-brasage, deux types d'analyses ont été réalisés : 1) des observations par microscopie optique en lumière polarisée dans un premier temps afin d'estimer la taille des grains d'étain, 2) des analyses par diffraction d'électrons rétrodiffusés (EBSD) 11 afin d'en mesurer les orientations cristallographiques et de quantifier la texture.
2.4.4.1 Analyses de texture dans le plan parallèle au substrat Observations en lumière polarisée
La figure 2.52 illustre une cartographie réalisée par microscopie optique en lumière polarisée. Pour l'obtenir, un échantillon post-brasage du premier lot a été poli parallèlement à la puce jusqu'au joint brasé. Alors, les propriétés biréfringentes 11. Electron Backscatter Diffraction (EBSD) 68 2.4. Caractérisation
de la microstructure
de
l'alliage Sn-Ag-Cu-Sb-X de β-Sn permettent qualitativement de différencier l'orientation des grains [LEH 04]. D'emblée il apparaît que les grains d'étain sont clairement visibles à l'échelle mésoscopique et que leurs tailles sont très grandes devant l'échelle de l'épaisseur du joint brasé : on constate que les grains peuvent atteindre des dimensions millimétriques. Cette taille de grain ne semble pas homogène. On peut en effet aussi distinguer des zones à petits grains. On retrouve aussi l'hétérogénéité de la microstructure avec la distribution non homogène d'IMCs et de pores dans les grains és. On constate donc d'ores et déjà la difficulté liée à l'échantillonnage, i.e. à la taille des zones analysées, pour les futures analyses quantitatives. Figure 2.52 – Vue de dessus dans un plan parallèle au substrat d'une brasure SACSbX postassemblage en lumière polarisée montrant la répartition des grains d'étain, la porosité, ainsi que certains intermétalliques. La figure 2.53 présente un agrandissement en microscopie optique d'une zone localisée près d'un coin d'un joint brasé post-brasage (du premier lot). On
peut observer au sein des grains d'étain la répartition hétérogène des intermétalliques Sb2 Sn3 ainsi qu'une dispersion d'
IMC
s
(Cu,Ni)6 (Sn,Sb)5. On remarque
aussi que
ces der
niers
IMCs se sont formés notamment
dans la
couche
proche
de
la
surface
libre
du joint brasé.
Analyses EBSD
La figure 2.54(a) illustre une figure de pôles inverse indexée sur l'étain (de structure quadratique) provenant d'une analyse EBSD réalisée sur un autre échantillon avec un pas de 5 μm. On visualise ainsi la distribution des orientations cristallines dont les directions sont parallèles à la normale au substrat. En réalité, cette cartographie d'environ 15,5 mm2 est une mosaïque constituée de 25 cartographies assemblées manuellement grâce au logiciel OIMTM Data Analysis. A cause de la grande hétérogénéité des phases et de la présence de pores, il n'est pas possible d'utiliser directement les outils automatiques classiques proposés par ce type de programme qui permettent de « nettoyer » la cartographie. On peut aussi constater que le logiciel commet des erreurs d'indexation, les IMCs Sb2 Sn3 étant considérés ici comme des grains d'étain par exemple sur la figure 2.54(a) (ce qui veut peut-être dire que les structures cristallines 69
2. Caractérisation microstructurale des joints après assemblage
Figure 2.53 – Vue de dessus d'un coin agrandi dans un plan parallèle au
substrat d'une brasure SACSbX post-assemblage en lumière polarisée montrant la répartition des IMCs (Cu,Ni)6 (Sn,Sb)5 et Sb2 Sn3 au sein des grains d'étain. sont très proches). D'autre part, malgré l'optimisation du polissage de cette grande surface, on s'aperçoit que la qualité globale de l'analyse EBSD est moyenne, générant plusieurs zones dont les orientations ne sont pas indexées, notamment en haut de l'image. Néanmoins, pour chaque analyse EBSD réalisée, il est possible d'en extraire uniquement les grains d'étains en partitionnant les cartographies brutes pour un résultat relativement satisfaisant. Pour cela on se base sur plusieurs critères tels que l'indice de confiance et l'indice de qualité de l'image notamment. Ces derniers sont liés à la netteté des diagrammes de Kikuchi, et sont de ce fait un moyen efficace pour reconstruire une microstructure. Ainsi, de manière analogue à l'analyse d'images, on peut segmenter la microstructure d'intérêt en appliquant des valeurs seuils arbitraires permettant de s'affranchir d'une part de la porosité, et d'autre part des IMCs Sb2 Sn3 indexés initialement par erreur. Une fois la partition obtenue, on applique ensuite une phase de dilatation des grains, puis une opération associant à chaque cellule élémentaire d'un grain l'orientation moyenne de ce dernier. La figure 2.54(b) illustre ainsi le résultat obtenu après application de la méthode. A partir de cette étape, l'analyse quantitative de la texture du matériau peut être réalisée. La figure 2.55(a) illustre ainsi la cartographie des grains d'étain de l'échantillon considéré. Les paramètres suivant on été appliqués dans le logiciel afin de définir ces grains : - « grain tolerance angle » = 2°, - « minimum grain size » = 9 cellules élémentaires. On observe un total de 1 481 grains. Il alors classiquement la mesure de l'aire de chaque grain, puis des diamètres équivalents. La figure 2.55(b) présente leur histogramme. On obtient ainsi un diamètre équivalent de ∼80 μm, et une médiane de ∼60 μm. Les mesures confirment les observations qualitatives réalisées en lumière polarisée : la distribution de tailles de grains est très hétérogène, avec des diamètres équivalent qui varient de ∼17 μm jusqu'à ∼995 μm au sein de la région d'observation du joint brasé. Ces résultats peuvent être remis en cause car la qualité du polissage et de l'indexation sont très hétérogènes (notamment la partie milieu droite de la cartographie figure 2.55(a), qui montre une distribution de grains plus petits sans pores ni IMCs). Il se peut que nous sous-estimions les tailles moyennes en donnant une importance artificielle aux très petites tailles, i.e. aux diamètres inférieurs à ∼ 100 μm. 1 0 0 0 N o m b r e d e g r a in s 1 0 0 1 0 1 0 1 0 0 2 0 0 3 0 0 4 0 0 5 0 0 6 0 0 7 0 0 8 0 0 9 0 0 1 0 0
0 D
ia
m
è
tr e
(
μ m ) (a) (b) Figure 2.55 – (a) Cartographie montrant la répartition des grains (couleurs aléatoires), (b) Histogramme des diamètres équivalents mesurés pour chaque grain.
2. Caractérisation microstructurale
des joints après assemblage (001). En effet, la zone analysée ici présente des grains dont la direction dominante de l'axe c [001] est quasiment normale au plan de l'interface substrat/joint brasé. Figure 2.56 – Figures de pôles quantifiant la texture des grains d'étain post-brasage.
Dans une étude de caractérisation microstructurale de 19 éprouvettes de cisaillement, Telang et Bieler [TEL 05] observent l'effet du gradient thermique sur l'orientation cristalline de joints brasés Sn-3.5Ag. Bien qu'aucune orientation préférentielle n'ait été clairement montrée pour les directions de l'axe c, ils observent cependant que certaines manquent. Ainsi, comme c'est la tendance au sein de notre observation, il n'y a quasiment pas d'orientations de l'axe c parallèles au plan de l'interface substrat/joint brasé. D'autre part, leur étude suggère que les directions [110] sont alignées avec le flux de chaleur.
2.4.4.2 Analyses EBSD de texture en coupe transverse
Nous avons ensuite choisi de focaliser les analyses EBSD par le moyen de coupes transverses des échantillons, au niveau des zones d'amorçage de fissures déterminées a priori, i.e. dans les joints brasés sous les coins de la puce. La figure 2.57 illustre ainsi les figures de pôles inverses sur les microstructures des deux extrémités d'un joint brasé. Elles montrent les directions cristallines parallèles à l'axe normal au plan d'interface substrat/brasure. On observe alors que la direction c n'apparaît pas quasiment pas. On peut aussi constater la forte inclinaison de la puce, avec un joint brasé ∼ 2,5 fois plus épais à l'extrémité droite qu'à celle de gauche. On voit apparaître de plus des tâches noires à l'endroit des pores et/ou intermétalliques filtrés par la méthode décrite précédemment. Une cartographie semi-quantitative de l'antimoine obtenue par EDS du bord gauche a été produit et est présentée figure 2.57(a). On y retrouve bien une concentration d'antimoine au sein des grosses phases de morphologie de type losange qui correspondent aux IMCs Sb2 Sn3. Par ailleurs, l'application du critère de définition des grains cité plus haut indique qu'il n'y a qu'un seul grain dans la hauteur du joint sur la cartographie du bord gauche, d'un diamètre équivalent de ∼ 118 μm, alors que le bord droit est lui constitué de 3 ou 4 grains d'étain dans la hauteur, le plus gros étant de l'ordre de ∼ 131 μm. La figure 2.58 illustre quant à elle les cartographies de l'orientation [001] de Sn. Il apparaît alors pour les deux extrémités une orientation dominante en rouge, qui correspond à un axe c parallèle au plan d'interface substrat/brasure. Figure 2.58 – Cartographie de l'orientation [001] (l'axe c) de Sn du joint brasé SACSbX montrant l'orientation dominante en rouge qui correspond à un axe c parallèle au plan d'interface substrat/brasure. (la puce en silicium se situe en bas de la cartographie).
2. Caractérisation microstructurale des joints après assemblage
A ces hétérogénéités de microstructure dans le corps du joint brasé viennent aussi s'ajouter celles présentes au niveau des interfaces avec le composant brasé et son substrat. C'est pourquoi nous avons ensuite souhaité réaliser un ensemble de mesures permettant de quantifier notamment l'hétérogénéité de dureté résultante au sein de la microstructure du joint brasé et de ses interfaces. 2.4.5 2.4.5.1 Essais de microdureté et nano-indentation Microdureté
Nous avons mesuré la dureté Vickers des brasures SACSbX post-brasage avec un microduromètre en se plaçant dans les conditions expérimentales suivantes : - application d'une charge de 10 g, - un temps de charge de 10 s, - une vitesse de pénétration de l'indenteur de 10 μm/s. Le protocole semi-automatique mis en place consiste à réaliser 20 mesures par échantillon. Ces vingt mesures sont effectuées tout au long du joint brasé, préparé en coupe transverse. Dix mesures sont effectuées au niveau du milieu de l'épaisseur locale du joint brasé, et dix autres sont localisées en dessous de la puce à chaque fois, à une distance d'environ 50 μm de l'interface substrat/brasure. Lors du choix des régions d'intérêt, on évite les grosses phases IMCs Sb2 Sn3. La figure 2.59 illustre une empreinte de microdureté typique réalisée
sur
la SACSbX. La taille moyenne des empreintes est de 25 μm. Le tableau 2.18 récapitule les valeurs mesurées au sein d'un échantillon SACSbX post-brasage. On mesure ainsi une microdureté de ∼ 35,8 ± 5,4 HV en coeur de brasure, contre une valeur moins élevée côté puce, avec ∼ 31,6 ± 2,6 HV. Cependant étant donnée l'incertitude de mesure, ces valeurs sont quasiment identiques.
Figure 2.59 – Empreinte typique après essai de microdureté dans un joint SACSbX post-brasage. Tableau 2.18 – Microdureté Vickers d'un joint brasé SACSbX post-assemblage. Côté Puce Mi-hauteur 2.4.5.2 Moyenne (HV) Ecart-type (HV) 31,6 35,8 2,6 5,4
Des essais de nano-indentation ont été réalisés à l'université d'Evry-Val-d'Essonne sur différentes phases des assemblages brasés au DLS avec l'alliage sans plomb SACSbX à l'aide d'un indenteur de type pointe Berkovich. Les essais de nano-indentation consistent en l'indentation d'un échantillon avec un chargement très faible (inférieur au Newton) en utilisant un équipement de haute précision qui permet de faire la mesure continue de la charge normale et du déplacement de l'indenteur. La nano-indentation permet de connaître les propriétés mécaniques de surfaces ou de couches minces, en particulier leur dureté H et leur module d'élasticité « réduit » défini . aractéris de la microstructure de l' Sn-Ag-Cu-Sb-X plus loin. L'enregistrement de la charge normale P en fonction de la profondeur de pénétration h de l'indenteur est illustré schématiquement par la figure 2.60. Figure 2.60 – Schéma représentatif d'une courbe de charge-décharge en fonction du déplacement de l'indenteur. Les grandeurs montrées sont Pmax : l'effort normal maximal, hmax : le déplacement de l'indenteur à effort maximal, hf : la profondeur de l'empreinte après chargement et S : la rigidité, qui correspond à la pente de la courbe de décharge au sommet [OLI 92]. Cette donnée permet alors le calcul de la rigidité du contact S ainsi que de l'aire de contact projetée Ap
. La
rigid
ité
S
correspond ainsi à la pente de la courbe de décharge au sommet. Elle suit l'équation (2.6) suivante : S= dP dh = hmax 1 C (2.6) avec C la complaisance totale prenant en compte la complaisance de l'appareil ainsi que celle de l'indenteur et de l'échantillon. Lors de la décharge élastique, la relation entre la courbe de déchargement et le module élastique du matériau testé peut être décrite par la théorie du contact élastique. Ainsi, le module réduit est relié à la complaisance totale C, inverse de la rigidité, par l'équation (2.7) suivante : √ π 1 p × Er = (2.7) 2β Ap (hmax ) C − Cm avec Cm la complaisance de la machine, β le facteur de correction géométrique valant 1,034 pour une pointe de Berkovich. L'aire de contact projetée Ap est une fonction de la profondeur de contact hmax mesurée expérimentalement, ainsi que d'un facteur correcteur prenant en compte l'état de vieillissement de la pointe [MAC 07 ; OLI 92]. L'équation (2.8) relie ensuite les paramètres élastiques du matériau étudié à ce modèle réduit : 1 1 − ν 2 1 − νi2 = + Er E Ei (2.8) avec E ν respectivement le module de Young et le coefficient de Poisson du matériau étudié. Ei et νi sont ceux de la pointe utilisée. Ainsi, étant donné le coefficient de Poisson d'un matériau on peut remonter à son module de Young et inversement. La dureté H quant à elle est exprimée selon l'équation (2.9) suivante :
H
=
Pmax Ap (hmax ) (2.9) 75
2. Caractérisation microstructurale des joints après assemblage
Des essais de nano-indentation ont donc été réalisés au niveau de différentes phases de la SACSbX. La figure 2.61 présente l'exemple d'une courbe effort-déplacement mesurée au cours de l'indentation des dendrites en étain de la matrice du joint brasé. L'appareil de nano-indentation est ensuite utilisé en mode AFM afin de cartographier la zone de mesure avec la pointe de l'indenteur, ce qui permet alors de visualiser les empreintes résiduelles sur la surface du matériau testé. Cela permet de plus de vérifier que l'indenteur a indenté la phase souhaitée. Par exemple, la figure 2.62(a) illustre ainsi une région cartographiée post-indentation, rendant possible la visualisation de deux empreintes dans la phase des dendrites d'étain.
1 0 0 0 Chargement (μN) 8 0 0 0.2 s -1 6 0 0 4 0 0 2 0 0 0 -2 0 0 2 0 4 0 6 0 8 0 1 0 0 1 2 0 1 4 0 1 6 0 1 8 0
Figure 2.61 – Exemple de courbe force-déplacement lors d'un essai de nano-indentation du corps de la brasure. Le tableau 2.19 récapitule certaines valeurs de dureté et de module réduit mesurées au sein de la matrice d'étain. On obtient ainsi en prenant un total de seulement cinq mesures une moyenne de Er ∼ 98,2 GPa (σ = 23,5 GPa) et H ∼ 0,82 GPa (σ = 0,09 GPa). Pour comparaison, la dureté est ici environ quatre fois plus importante que celle de l'eutectique Sn+Ag3 Sn d'un joint brasé Sn-3,5Ag [DEN 04a] (dont la valeur est présentée dans le tableau 2.10).
Les auteurs tels que Yang et al. [YAN 08] vont jusqu'à la détermination du module de Young, en faisant l'hypothèse de connaître d'une part les propriétés élastiques de l'indent en diamant (E = 1140 GPa, ν = 0,07), mais surtout en supposant le coefficient de Poisson des phases testées d'autre part (0,309
pour le Cu
6
Sn5, 0,2
99
pour Cu3 Sn et 0,330 pour Ni3 Sn
4 ). Par la suite, nous ne ferons pas ces hypothèses fortes et nous nous arrêterons aux valeurs du module de Young réduit Er.
Tableau 2.19 – Caractérisation des modules réduits et des duretés de la brasure SACSbX. Brasure au milieu du joint Brasure proche de l'interface joint/substrat Er (GPa) H (GPa) Figures 90,50 92,63 89,43 79,21 139,23 0,95 0,82 0,78 0,85 0,71 2.62(a) 2.62(a) 2.62(b) 2.62(c) 2.62(c) Ainsi, le tableau 2.20 récapitule les valeurs de dureté et de module réduit mesurées sur les interfaces d'un échantillon SACSbX, i.e. au niveau des intermétalliques mais aussi au niveau de la puce, du substrat et de son revêtement. 2. Caractérisation microstructurale des joints après assemblage
La figure 2.64 illustre la mesure de la rugosité au niveau d'un profil d'une longueur ∼ 28,3 μm traversant la couche d'intermétallique présente à l'interface joint brasé/substrat. On mesure alors une rugosité moyenne de type Ra d'environ 88,5 nm. Figure 2.64 – Analyse de la rugosité le long de la couche d'IMC à l'interface joint brasé SACSbX/substrat. L'appareil n'étant pas pourvu d'un système de localisation précis, il est très long et labor
ieux
de venir localiser les zones d'intérêts
, et quasiment impossible de
cibler
certaines
phase
s
dans le corps de la brasure en particulier
(notamment
les différent
es
IMCs
tels que
Sb2 Sn3
). De même, l'examen au
MEB
a posteriori des nano-
empreintes
est impensable. Pour cette raison, nous n'avons pas privilégié la poursuite d'études dans cette direction
.
2.5 Caractérisation de la microstructure de l'alliage SnSb5
Dans cette partie nous présentons les différents résultats concernant l'analyse de la microstructure brute de solidification de l'alliage SnSb5 brasé au procédé Die Laser Soldering (DLS). Seuls les échantillons du premier lot de SnSb5 reçu pendant la thèse ont ainsi été évalués. Les propriétés d'ordre « macroscopique » de type inclinaison du MOSFET et porosité débouchante n'ont pas été caractérisées, mais sont considérées comme étant similaires à celles des joints brasés SACSbX. L'alliage SACSbX s'avérant d'un plus grand intérêt pour l'industriel, nous avons choisi de prioriser pour le SnSb5 la caractérisation de la microstructure sans passer par la caractérisation à l'é macroscopique. Cela dit, nous retrouverons bien chacune des caractéristiques (inclinaison, porosité, épaisseur moyenne ∼ 160 μm, etc.) sur les coupes transverses réalisées pour les études métallurgiques. Ainsi, la figure 2.65 illustre les micrographies optiques d'un joint brasé SnSb5 post-brasage présentant un macropore, ainsi qu'une distribution de plus petits pores de diamètre équivalent très inférieur. 2.5.1 2.5.1.1 Microstructure au sein du joint brasé Analyse des phases présentes Analyses semi-quantitatives
La localisation des éléments obtenue à la microsonde de Castaing pour l'alliage SnSb5 est illustrée sur la figure 2.66. Ces cartographies rendent compte de la microstructure de solidification, dont la morphologie se situe entre cellules de solidification et dendrites. On obtient ainsi des dendrites riches en étain et antimoine, avec des espaces interdendritiques riches en argent et en nickel, où l'on peut aussi voir des précipités riches en antimoine. La figure 2.67 illustre la microstructure du corps du joint brasé SnSb5 à faible et fort grossissement au microscope électronique à balayage. On peut voir ainsi dans cette zone une très fine répartition de composés intermétalliques riches en Ag selon une direction privilégiée verticale, dans les espaces interdendritiques autour des dendrites d'étain β-(Sn,Sb). Le résultat d'analyses quantitatives faites à la microsonde nous ont permis de confirmer que les préformes de SnSb5 ne contiennent pas d'argent. Ainsi, la répartition quasi-uniforme de ces composés intermétalliques
SnSb5 (a) Pore débouchant (b) Porosité incluse dans la matrice Figure 2.65 – Micrographies optiques d'un joint brasé SnSb5 post-brasage montrant différents types de pores caractéristiques. (a) MEB (SE) (b) Ti (c) Ag (d) Ni (e) Sb (f) Sn Figure 2.66 – Cartographies semi-quantitatives des éléments au sein de la brasure SnSb5 après brasage (la puce en silicium se trouve à gauche de l'image, le substrat en cuivre à droite). 2. Caractérisation microstructurale des joint
s après assemblage riches en Ag dans l'ensemble du corps de la brasure provient uniquement de la finition de la face arrière de la puce. On observe d'ailleurs sur la figure 2.66(c) que la couche de finition en Ag à l'interface puce/brasure a quasiment disparu. On remarque aussi sur la cartographie de la figure 2.66(d) que le nickel a diffusé lors du brasage au sein de la matrice, depuis le revêtement du substrat, mais aussi depuis l'une des couches de la métallisation face arrière de la puce. De plus, d'après les cartographies de Sb telles que celle de la figure 2.66(e), on a des précipités riches en Sb mais pauvre en Sn, dans les dendrites mais aussi à proximité des interfaces. Enfin, nous avons constaté que le cuivre n'a pas du tout diffusé dans la brasure pendant le processus d'assemblage. Nous verrons plus loin que la barrière de diffusion formée par le revêtement en nickel sera effective même durant le vieillissement thermique de l'ensemble.
Figure 2.67 – Observations MEB de la brasure SnSb5 (électrons rétrodiffusés). Diffraction des rayons X
La diffraction des rayons X a aussi été utilisée afin de déterminer la nature des composés intermétalliques présents au sein de la matrice d'un échantillon SnSb5 post-brasage. Pour cela, comme précédemment, la puce d'un échantillon a été polie parallèlement à sa surface supérieure jusqu'à atteindre le joint brasé. La figure 2.68 illustre l'échantillon obtenu en vue de dessus. On y distingue nettement la macroporosité débouchante, permettant d'observer le revêtement en nickel directement. Figure 2.68 – Vue de dessus dans un plan parallèle au substrat d'un joint brasé SnSb5. La figure 2.69 illustre un diffractogramme résultant de la DRX réalisée sur ce joint brasé. On trouve alors les pics caractéristiques de l'étain, du binaire SbSn nommé stistaite ainsi que ceux 80
2.5. Caractérisation de la microstructure de l'alliage SnSb5 de l'IMC Ag3 Sn. On identifie aussi du nickel pur, mais pas de composés intermétalliques à base de nickel. Le nickel identifié est sans doute celui composant le revêtement du substrat en cuivre (on identifie aussi d'ailleurs les pics de ce dernier). Or, on a pourtant observé sur la cartographie semi-quantitative des éléments de la figure 2.66 que le nickel est présent dans la matrice. Il est en effet quasiment superposé aux zones enrichies en argent et appauvries en antimoine. Nous ne pouvons pas conclure quant à la nature des intermétalliques à base de nickel formés dans les espaces interdendritiques. D'ailleurs, il est aussi probable que le Ni ne soit pas sous forme d'IMC, mais plutôt en solution solide dans ces régions.
Figure 2.69 – Diffractogramme des rayons X du SnSb5.
| 14,950
|
0d93eb7403cdf36d34a1278583dd6527_16
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,023
|
Répartition de la capitalisation boursière et de l’emploi parmi les entreprises cotées basées en Afrique
|
None
|
French
|
Spoken
| 6,809
| 12,143
|
Graphique 7.3. Création d’emplois par les investissements directs étrangers greenfield
et émissions de gaz à effet de serre, par secteur d’activité, en Afrique de l’Ouest
A. Investissements directs étrangers en faveur de nouveaux projets en Afrique de l'Ouest,
dépenses en capital et création d’emplois, par secteur d’activité, 2017-21
Dépenses en capital
B. Émissions annuelles de gaz à effet de serre en Afrique de l'Ouest, 2010-20
Ratio emplois créés/dépenses en capital (axe de droite)
Millions USD
30 000
4.0
3.5
25 000
3.0
20 000
2.5
2.0
15 000
1.5
10 000
1.0
5 000
0
0.5
Secteur manufacturier
Extraction
Infrastructures TIC
Logistique,
et Internet
distribution et transport
Électricité
0.0
Mégatonnes
250
Transport
Production d'électricité/de chaleur
Consommation d'énergie du secteur énergétique
Agriculture/sylviculture
Secteur résidentiel
Secteur manufacturier/industrie/construction
Services commerciaux et publics
Autres
200
150
100
50
0
2010
2011
2012
2013
2014
2015
2016
2017
2018
2019
2020
Note : TIC = technologies de l’information et de la communication.
Source : Calculs des auteurs à partir de fDi Intelligence (2022), fDi Markets (base de données), www.fdiintelligence.com/
fdi-markets et AIE (2022), Data and Statistics (base de données), www.iea.org/data-and-statistics/data-tools/greenhouse-gasemissions-from-energy-data-explorer.
12 https://stat.link/vshfpa
Pour leur plus grande part, les IDE en faveur de nouveaux projets en Afrique de
l’Ouest proviennent de l’extérieur de la région et du continent. Sur la période 2017-21,
56 % provenaient ainsi de pays à revenu élevé, suivis de l’Asie (21 %), principalement sous
l’impulsion d’importants investissements de la République populaire de Chine (ci-après
« Chine »). Les autres régions d’Afrique comptent de leur côté pour 17 % du total de ces IDE,
essentiellement en provenance d’Afrique australe et d’Afrique du Nord, et à destination
du Nigéria. Au niveau intra-régional, c’est le Togo qui est le premier bénéficiaire de ces
investissements, pour majeure partie en provenance du Nigéria (Graphique 7.6).
L’APD et les apports philanthropiques viennent compléter des investissements
publics limités dans les secteurs sociaux, mais restent concentrés sur un seul pays. Les
dépenses publiques de santé ne représentaient que 0.8 % du PIB en 2019, une part plus
faible que dans toute autre région du continent, hormis l’Afrique centrale. Les dépenses
publiques d’éducation n’étaient pas bien plus conséquentes, comptant pour seulement
1.6 % du PIB, et également plus faibles que partout ailleurs sur le continent. À l’inverse,
46 % des 72 milliards USD d’APD à destination de la région sur la période 2011-20
sont allés aux infrastructures et services sociaux (santé, éducation, société civile,
approvisionnement en eau et assainissement) (Graphique 7.4, Panel A), et environ 48 %
des apports philanthropiques sur la période 2016-19 ciblaient le secteur de la santé et de
la santé reproductive (Graphique 7.4, Panel B). Ces apports – APD comme philanthropie –
sont néanmoins restés fortement axés sur le Nigéria.
240
DYNAMIQUES DU DÉVELOPPEMENT EN AFRIQUE 2023 : INVESTIR DANS LE DÉVELOPPEMENT DURABLE © CUA/OCDE 2023
7. Investir dans les chaînes de valeur agroalimentaires pour le développement durable en Afrique de l’Ouest
Graphique 7.4. Répartition de l’aide publique au développement
et des apports philanthropiques à destination de l’Afrique de l’Ouest
B. Répartition des apports philanthropiques par secteur et pays, en millions USD, 2016-19
A. Répartition de l'APD par secteur, en milliards USD, 2011-20
Non alloué/non spécifié
3.3 milliards USD
Actions relatives à la dette
3.6 milliards USD
Appui aux programmes
3.9 milliards USD
Multisectoriel
4.2 milliards USD
Production
6.6 milliards USD
Millions USD
900
Santé et santé reproductive
Éducation
Gouvernement et société civile
Approvisionnement en eau et assainissement
Agriculture, sylviculture et pêche
Services bancaires et financiers
Autres infrastructures et services sociaux
Autres
800
700
Infrastructures et services
sociaux
33.7 milliards USD
Humanitaire
7.9 milliards USD
Infrastructures et services
économiques
9.8 milliards USD
600
500
400
300
200
100
0
Nigéria Ghana Burkina Sénégal Côte
Faso
d'Ivoire
Mali
Niger
Libéria
Sierra
Leone
Bénin
Guinée Guinée- Cabo
Bissau Verde
Togo Gambie
Note : Sont représentés dans ce graphique les huit secteurs ayant bénéficié de la part la plus importante d’APD et d’apports
philanthropiques ; la catégorie « Autres » englobe les secteurs restants.
Source : Calculs des auteurs à partir d’OCDE (2022a), Comité d’aide au développement de l’OCDE (base de données), https://stats-1.
oecd.org/Index.aspx?DataSetCode=TABLE2A ; et OCDE (2021a), Private Philanthropy for Development: Data for Action Dashboard
(base de données), https://oecd-main.shinyapps.io/philanthropy4development/.
12 https://stat.link/gkateu
D’autres sources de financement privé, comme l’investissement d’impact et les
investisseurs institutionnels nationaux, se développent en Afrique de l’Ouest. Les
institutions de financement du développement comptaient pour environ 97 % des
investissements d’impact dans la région entre 2005 et 2015 (GIIN, 2015). Au Nigéria,
des changements réglementaires, notamment la réglementation des actifs des fonds
de pension en 2006, ont permis à ceux-ci d’augmenter leur enveloppe d’actifs sous
gestion (Juvonen et al., 2019 ; National Pension Commission, 2006), qui atteignait ainsi
32.3 milliards USD en 2020 (OCDE, 2021b). Au Ghana, les fonds de pension ont également
connu une croissance régulière, avec un cumul de 4.7 milliards USD en 2021, portant le
pays au rang de deuxième marché de fonds de pension de la région (Nyang`oro et Njenga,
2022 ; OCDE, 2021b). La Nigerian Sovereign Wealth Authority (Fonds souverain nigérian)
disposait en 2021 de 3 milliards USD d’actifs sous gestion, le montant le plus élevé de tous
les fonds souverains d’Afrique de l’Ouest, suivie du Fonds souverain d’investissements
stratégiques du Sénégal (FONSIS) et du Ghana Heritage Fund, à respectivement 0.8 et
0.7 milliard USD d’actifs sous gestion (SWFI, n.d.).
L’Afrique de l’Ouest a mobilisé d’importants financements mixtes, à destination de
secteurs à fort comme à faible potentiel de durabilité. Sur la période 2012-20, en moyenne
2.4 milliards USD de financements privés ont ainsi été mobilisés chaque année via des
institutions de financement du développement ou des banques de développement, plus
que dans toute autre région du continent, hormis l’Afrique australe. À l’instar des IDE
greenfield, ces financements mixtes sont allés pour majeure partie au Nigéria (37 %), au
Ghana (24 %) et à la Côte d’Ivoire (15 %), suivis du Sénégal (7 %) et de la Guinée (6 %). Si des
parts significatives ont bénéficié à des secteurs à fort potentiel global de durabilité (comme
l’énergie, les services bancaires et financiers, ou encore l’agriculture, la sylviculture et la
pêche), c’est toutefois un secteur au piètre bilan de durabilité environnementale et sociale
– l’industrie, l’exploitation minière et la construction – qui a été le deuxième le plus prisé
(Graphique 7.5 ; voir le chapitre 1).
DYNAMIQUES DU DÉVELOPPEMENT EN AFRIQUE 2023 : INVESTIR DANS LE DÉVELOPPEMENT DURABLE © CUA/OCDE 2023
241
7. Investir dans les chaînes de valeur agroalimentaires pour le développement durable en Afrique de l’Ouest
Graphique 7.5. Financements privés en Afrique de l’Ouest mobilisés
via l’aide publique au développement, par secteur, en milliards USD, 2012-20
Autres secteurs
5.9 milliards USD
Services bancaires et
financiers
5.9 milliards USD
Agriculture,
sylviculture et pêche
1.1 milliard USD
Énergie
5.2 milliards USD
Industrie, exploitation
minière et construction
5.3 milliards USD
Note : La catégorie « Autres secteurs » comprend les secteurs suivants (par ordre d’importance) : gouvernement
et société civile ; politiques et réglementations commerciales ; secteurs multisectoriels/transversaux ;
approvisionnement en eau et assainissement ; éducation ; santé ; services aux entreprises et autres services ;
tourisme ; autres infrastructures et services sociaux ; allocations non spécifiées ; politiques/programmes
démographiques et santé reproductive et aide humanitaire.
Source : Calculs des auteurs à partir d’OCDE (2022b), « Mobilisation », OECD.Stat (base de données), https://stats.
oecd.org/Index.aspx?DataSetCode=DV_DCD_MOBILISATION.
12 https://stat.link/lutv3n
L’Afrique de l’Ouest est moins bien intégrée dans les exportations et
investissements intra-africains que les autres régions du continent
Les exportations intra-régionales et intra-continentales sont moins importantes en
Afrique de l’Ouest qu’en Afrique australe. Environ 57 % des exportations officielles de
pays d’Afrique de l’Ouest vers d’autres pays africains sont restées dans la région entre
2014 et 2016, tandis que sur la même période, les exportations intra-régionales comptaient
pour environ 85 % des exportations des pays de la Communauté de développement de
l’Afrique australe (Southern African Development Community [SADC]) vers d’autres pays
africains. Avant la pandémie de COVID-19, le Sénégal était en outre le seul pays d’Afrique
de l’Ouest parmi les dix premiers exportateurs intra-africains, alors que trois pays de la
région figuraient dans les dix derniers (CNUCED, 2019).
Le Nigéria domine les investissements intra-régionaux et compte le plus grand nombre
d’entreprises cotées en bourse de la région. Les sorties d’IDE greenfield de pays d’Afrique
de l’Ouest se destinent principalement à d’autres pays d’Afrique de l’Ouest (40 %), suivis
des pays à revenu élevé (29 %) et de l’Afrique de l’Est (14 %). Le Nigéria représente à lui
seul 86 % des sorties d’IDE de la région (Graphique 7.6) et compte 15 des 20 premières
entreprises privées cotées en bourse d’Afrique de l’Ouest (en termes de capitalisation
boursière), dont 8 dans le secteur de la finance et de l’assurance.
242
DYNAMIQUES DU DÉVELOPPEMENT EN AFRIQUE 2023 : INVESTIR DANS LE DÉVELOPPEMENT DURABLE © CUA/OCDE 2023
7. Investir dans les chaînes de valeur agroalimentaires pour le développement durable en Afrique de l’Ouest
Graphique 7.6. Investissements directs étrangers en faveur de nouveaux projets
en provenance d’Afrique de l’Ouest, par région de destination, 2017-21, en millions USD
ORIGINE
DESTINATION
Reste du monde 188
Afrique centrale 177
Afrique de l’Est 397
Pays à revenu élevé 438
Afrique du Nord 192
Nigéria 4 356
Afrique de l’Ouest 3 661
Côte d’Ivoire 286
Ghana 143
Burkina Faso 113
Autres pays 155
Note : La catégorie « Autres pays » comprend le Togo (76 millions USD), le Sénégal (46 millions USD) et le Mali (34 millions USD),
tandis que la catégorie « Reste du monde » englobe les pays d’Afrique australe (50 millions USD), de l’Asie en développement
(137 millions USD) et de l’Amérique latine et des Caraïbes (1 million USD).
Source : Calculs des auteurs à partir de fDi Intelligence (2022), fDi Markets (base de données), www.fdiintelligence.com/fdi-markets.
12 https://stat.link/9pdeih
L’investissement durable dans le secteur agroalimentaire peut stimuler la
transformation productive de l’Afrique de l’Ouest
Le secteur agroalimentaire de l’Afrique de l’Ouest contribue à l’emploi et aux moyens
de subsistance à travers toute la région, en particulier dans les populations rurales ; d’où
l’importance pour l’investissement durable de le prioriser. En Afrique de l’Ouest, la valeur
ajoutée moyenne de l’agriculture, de la sylviculture et de la pêche représentait 24.4 % du PIB
en 2021, contre 16.5 % à l’échelle du continent et 4.3 % à celle du monde (Banque mondiale,
2021). Fin 2020, le secteur agricole contribuait à hauteur d’environ 25 % au PIB de la région
et de 45 % à l’emploi. Le secteur agroalimentaire dans son ensemble (agriculture plus
transformation alimentaire, conditionnement, transport, distribution et vente au détail)
représente 66 % de l’emploi total dans la région. L’économie alimentaire non agricole
emploie 82 millions de personnes, principalement dans le commerce de détail et de gros
(68 %) et la transformation alimentaire (22 %), un segment encore amené à se développer
davantage (Allen, Heinrigs et Heo, 2018). L’investissement dans le secteur agroalimentaire
et sa main-d’œuvre offre aux pays d’Afrique de l’Ouest la possibilité de créer des synergies
à long terme entre durabilité et résilience économiques, sociales et environnementales
(Ali et al., 2020). Environ 53 % de la population ouest-africaine vit en zones rurales, où se
concentrent la plupart des activités agricoles. Parmi les femmes occupant un emploi, 68 %
travaillent dans l’économie alimentaire : elles comptent pour 88 % de l’emploi dans les
services de restauration hors domicile, 83 % dans la transformation alimentaire et 72 %
dans la commercialisation des produits alimentaires (Allen, Heinrigs et Heo, 2018).
DYNAMIQUES DU DÉVELOPPEMENT EN AFRIQUE 2023 : INVESTIR DANS LE DÉVELOPPEMENT DURABLE © CUA/OCDE 2023
243
7. Investir dans les chaînes de valeur agroalimentaires pour le développement durable en Afrique de l’Ouest
Premier producteur agricole primaire mondial pour un large éventail de produits,
l’Afrique de l’Ouest continue toutefois d’afficher de faibles taux d’exportation. Depuis
les années 1980, la valeur de la production agricole des pays d’Afrique de l’Ouest n’a
cessé d’augmenter, principalement sous l’impulsion des produits agricoles non céréaliers
(Graphique 7.7). En 2020, sur les 319 milliards USD de la valeur totale de la production
agricole du continent, près de 125 milliards (39 %) étaient ainsi attribuables à l’Afrique
de l’Ouest1, avec plusieurs pays de la région parmi les premiers producteurs mondiaux
de tout un ensemble de produits agricoles (CUA/OCDE, 2019). Sur la période 2019-21, la
production mondiale d’igname (95 %) et de niébé (85 %) était en majeure partie attribuable
à l’Afrique de l’Ouest, et sept des 15 premiers produits agricoles de la région représentaient
50 % de la production du continent. Seule une part minime (moins de 1 %) de la plupart
des produits alimentaires d’Afrique de l’Ouest est toutefois exportée, à l’exception notable
des fèves de cacao (73 %) (Tableau 7.1).
Les échanges de produits alimentaires et de boissons entre les pays d’Afrique de
l’Ouest et les autres pays stagnent depuis 2010, tandis que les importations de produits
transformés en provenance de pays non africains ont récemment augmenté. Entre 2010
et 2020, le niveau des importations et exportations de produits alimentaires et de boissons
est resté constant en Afrique de l’Ouest, ces échanges s’opérant pour une part bien plus
importante avec des pays non africains qu’avec d’autres pays du continent. La région
occupe certes une place de premier plan pour l’exportation de produits alimentaires
primaires vers les pays non africains, mais importe une grande partie de ses produits
transformés de ceux-ci (Graphique 7.7). Entre 2016 et 2020, les pays d’Afrique de l’Ouest
ont ainsi importé pour près de 60 milliards USD de produits alimentaires, dont environ
67 % semi-transformés ou transformés (Badiane et al., 2022). Les céréales et produits à
base de céréales, la viande et les produits laitiers, le sucre transformé et les boissons non
alcoolisées sont les principaux produits importés.
Graphique 7.7. Importations et exportations de produits alimentaires
et de boissons primaires et transformés en Afrique de l’Ouest, 2010-21, en millions USD
A. Importations
Produits transformés, Afrique
Produits primaires, Afrique
B. Exportations
Produits transformés, monde hors Afrique
Produits primaires, monde hors Afrique
Millions USD
12 000
Millions USD
20 000
18 000
10 000
16 000
14 000
8 000
12 000
6 000
10 000
8 000
4 000
6 000
4 000
2 000
2 000
0
Produits transformés, Afrique
Produits primaires, Afrique
Produits transformés, monde hors Afrique
Produits primaires, monde hors Afrique
2010
2011
2012
2013
2014
2015
2016
2017
2018
2019
2020
2021
0
2010
2011
2012
2013
2014
2015
2016
2017
2018
2019
2020
2021
Source : Calculs des auteurs à partir de CEPII (2023), BACI: International Trade Database at the Product-Level (base de données),
www.cepii.fr/CEPII/en/bdd_modele/bdd_modele_item.asp?id=37.
12 https://stat.link/e7nf85
La production agroalimentaire de l’Afrique de l’Ouest est en baisse pour certains
produits, alors que les prix des denrées alimentaires de base augmentent à l’échelle
mondiale. Les récentes crises ont rappelé avec force la dépendance de l’Afrique de l’Ouest
aux importations de certains produits et intrants agroalimentaires, notamment les céréales
(Graphique 7.8). Dans certaines régions rurales du Sahel, la production céréalière a ainsi
chuté d’environ un tiers en 2022, en partie à cause de pénuries d’engrais (Oxfam, 2022),
tandis que l’onde de choc des conflits internationaux dans la chaîne d’approvisionnement
a fait exploser les prix du blé, en hausse de 60 % en juin 2022 par rapport à janvier 2021
(Banque mondiale, 2022b).
244
DYNAMIQUES DU DÉVELOPPEMENT EN AFRIQUE 2023 : INVESTIR DANS LE DÉVELOPPEMENT DURABLE © CUA/OCDE 2023
7. Investir dans les chaînes de valeur agroalimentaires pour le développement durable en Afrique de l’Ouest
Graphique 7.8. Valeur brute de la production agricole et céréalière
en Afrique de l’Ouest, 1985‑2020, en milliards USD constants 2014-16
Agriculture
Agriculture hors céréales
Céréales
Milliards USD constants 2014-16
140
120
100
80
60
40
20
0
Source : Calculs des auteurs à partir de FAOSTAT (2022a), Production (base de données), www.fao.org/faostat/
en/#data/QV.
12 https://stat.link/nua98r
Tableau 7.1. Quinze premiers produits agricoles d’Afrique de l’Ouest
en termes de volume de production, 2019-21
Production totale
en 2019-21
(millions de
tonnes)
Part dans la
production du
continent
Part dans la
production
mondiale
Pays au volume de
production le plus élevé
(part dans la production
régionale)
Manioc frais
303
52 %
33 %
Nigéria (59 %)
0%
0%
0%
Ignames
215
97 %
95 %
Nigéria (71 %)
0.1 %
100 %
37 %
Maïs
79
29 %
2%
Nigéria (48 %)
1%
5%
0%
Œufs frais
70
29 %
1%
Nigéria (66 %)
0.002 %
3%
0%
Riz
62
56 %
3%
Nigéria (40 %)
0.01 %
13 %
0%
Huile, noix de palme
53
77 %
4%
Nigéria (56 %)
n.d.
n.d.
n.d.
Sorgho
39
47 %
22 %
Nigéria (51 %)
0%
11 %
0%
Plantains et bananes
de cuisson
32
33 %
24 %
Ghana (45 %)
1%
55 %
3%
Autres légumes frais,
n.c.a.
29
46 %
3%
Nigéria (70 %)
0.3 %
14 %
1%
Arachides non
décortiquées
28
57 %
18 %
Nigéria (48 %)
1%
76 %
15 %
Mil
28
70 %
31 %
Niger (32 %)
0.2 %
67 %
4%
Niébé sec
23
88 %
85 %
Nigéria (48 %)
0.03 %
8%
2%
Canne à sucre
22
8%
0%
Côte d’Ivoire (28 %)
0.01 %
2%
0%
Patates douces
17
20 %
6%
Nigéria (70 %)
0.3 %
18 %
2%
Tomates
16
25 %
3%
Nigéria (68 %)
0.2 %
1%
0%
Produit
agricole
Pourcentage
exporté
Part dans les Part dans les
exportations exportations
du continent
mondiales
Note : n.d. = non disponible ; n.c.a. = non classé ailleurs.
Source : Calculs des auteurs à partir de FAOSTAT (2022b), Commerce (base de données), www.fao.org/faostat/en/#data/TCL et
FAOSTAT (2022c), Production (base de données), www.fao.org/faostat/en/#data/QCL.
En forte croissance démographique, l’Afrique de l’Ouest affiche des dépenses
alimentaires élevées et une demande croissante de produits alimentaires
transformés
La population de la région augmente et les ménages consacrent une part importante de
leurs dépenses à l’alimentation. En Afrique de l’Ouest, la population en âge de travailler a
ainsi progressé en moyenne de 2.8 % par an, contre 1.2 % pour l’Asie du Sud-Est et 1.3 % pour
DYNAMIQUES DU DÉVELOPPEMENT EN AFRIQUE 2023 : INVESTIR DANS LE DÉVELOPPEMENT DURABLE © CUA/OCDE 2023
245
7. Investir dans les chaînes de valeur agroalimentaires pour le développement durable en Afrique de l’Ouest
l’Amérique latine et les Caraïbes, et la région comptera 520 millions d’habitants d’ici 2030.
Les dépenses alimentaires des ménages ouest-africains restent élevées : en 2021, les
consommateurs consacraient ainsi 59 % de leurs dépenses à l’alimentation au Nigéria, 39 %
au Ghana et en Côte d’Ivoire, contre 56 % au Kenya, 50 % en Angola, 45 % au Cameroun, 44 %
en Ouganda, 41 % en Éthiopie, 27 % en Tanzanie et 20 % en Afrique du Sud (USDA ERS, 2021).
L’essor de la classe moyenne urbaine en Afrique de l’Ouest accroît la demande de
produits alimentaires industriels et transformés, dont une large part est actuellement
importée. En 2020, les 75 grandes agglomérations urbaines (au moins 300 000 habitants)
de la région totalisaient plus de 93 millions d’habitants, en tête de toutes les régions du
continent (OCDE/CENUA/BAfD, 2022). Le plus grand pouvoir d’achat de la classe moyenne
urbaine crée une forte demande d’aliments transformés, relativement plus faciles
à transporter, stocker et préparer (Allen et Heinrigs, 2016). Des groupes de discussion
organisés à Lagos (Nigéria) et Accra (Ghana) pointent ainsi la préférence des consommateurs
urbains pour les aliments locaux, mais leur insatisfaction envers le conditionnement, la
présentation, l’innocuité et la qualité des produits alimentaires transformés localement,
qui les pousse à se tourner vers les produits importés, plus faciles à préparer (Badiane et
al., 2022 ; Hollinger et Staatz, 2015 ; Encadré 7.1).
Encadré 7.1. L’alimentation infantile : une chaîne de valeur pleine de promesses
pour le continent africain
La demande de produits d’alimentation infantile devrait continuer à augmenter sur tout le
continent, alors que la dépendance aux importations reste élevée. Les pays africains importent
actuellement dix fois plus de produits alimentaires pour les moins de 3 ans qu’ils n’en
exportent. Aujourd’hui chiffrées à 570 millions EUR, ces importations devraient ainsi dépasser
1.1 milliard EUR d’ici 2026. D’après une étude menée entre 2021 et 2022 auprès des entreprises
de la chaîne de valeur de l’alimentation infantile, 16 % recevaient des intrants en provenance de
producteurs africains (ITC, 2022a).
Un conditionnement plus respectueux de l’environnement permettrait aux producteurs
africains de gagner en compétitivité. Bien que les produits du secteur africain de l’alimentation
infantile soient souvent mieux adaptés aux préférences des consommateurs locaux et plus
abordables que les marques importées, la moindre qualité de leur transformation et de leur
conditionnement peut leur faire perdre en attractivité. Les emballages biodégradables et les
systèmes de consigne (pour les bouteilles, par exemple) offrent, à cet égard, un potentiel encore
inexploité. D’après une étude du Centre du commerce international (International Trade Centre
[ITC]), la chaîne de valeur de l’alimentation infantile est ainsi la seule des quatre examinées
pour laquelle entreprises clientes comme consommateurs se disent prêts à payer davantage
pour des produits plus respectueux de l’environnement (ITC, 2022a).
L’accès au crédit, la logistique de transport et les difficultés à retenir les professionnels qualifiés
freinent le développement des producteurs africains d’aliments infantiles. Les acteurs locaux
commencent néanmoins à contester la position dominante d’entreprises multinationales
comme Nestlé, qui occupe actuellement à elle seule 52 à 55 % du marché de l’alimentation
infantile en Afrique de l’Ouest. Sous la houlette de femmes, l’entreprise nigériane BabyGrubz
propose ainsi une gamme de produits pour les prématurés et les bébés souffrant de malnutrition.
L’entreprise, dont les processus d’approvisionnement et de transformation s’opèrent à 100 %
au Nigéria, prévoit l’exportation prochaine de ses produits vers les pays voisins. Au Nigéria
comme ailleurs sur le continent, les producteurs d’aliments infantiles se heurtent toutefois à
différents problèmes, notamment la rétention des talents, l’absence d’évaluations rigoureuses
de l’innocuité des produits et la fragmentation des réglementations en matière d’étiquetage, de
conditionnement et de durée de conservation (ITC, 2022a).
246
DYNAMIQUES DU DÉVELOPPEMENT EN AFRIQUE 2023 : INVESTIR DANS LE DÉVELOPPEMENT DURABLE © CUA/OCDE 2023
7. Investir dans les chaînes de valeur agroalimentaires pour le développement durable en Afrique de l’Ouest
Les investissements formels dans le secteur agroalimentaire stagnent et ne
ciblent pas suffisamment les activités d’aval
En Afrique de l’Ouest, le financement du secteur agricole par le crédit intérieur, le
financement du développement et les dépenses publiques est resté largement inchangé.
Malgré sa volatilité, le crédit intérieur (prêts accordés par les banques locales) représente
de loin la principale source formelle de financement du secteur de l’agriculture, de la
sylviculture et de la pêche de la région (6.7 milliards USD en 2020), tandis que les
décaissements au titre du financement du développement et les dépenses publiques sont
plus limités (respectivement 1.7 milliard USD et 1.1 milliard USD en 2020) (Graphique 7.9).
Graphique 7.9. Financement du secteur de l’agriculture, de la sylviculture
et de la pêche en Afrique de l’Ouest par différents canaux formels,
en regard de la formation brute de capital fixe, 2010-21
Décaissements au titre du financement du développement
Dépenses publiques
Crédit intérieur (prêts accordés par les banques locales)
Formation brute de capital fixe
Millions USD constants 2010
25 000
20 000
15 000
10 000
5 000
0
2010
2011
2012
2013
2014
2015
2016
2017
2018
2019
2020
2021
Note : Les chiffres de 2021 pour les décaissements au titre du financement du développement n’étant pas disponibles, ce
sont les valeurs de 2020 qui sont utilisées.
Source : FAOSTAT (2022d), Investissement (base de données), www.fao.org/faostat/en/#data/CISP.
12 https://stat.link/d3has2
L’investissement public dans le secteur agricole n’a pas augmenté et s’est montré
volatile. Dans le cadre de son suivi du Programme détaillé pour le développement de
l’agriculture africaine (PDDAA), l’Agence de développement de l’Union africaine-Nouveau
partenariat économique pour le développement de l’Afrique attribue à l’Afrique de l’Ouest
une note de 3.47 sur 10, pointant ainsi la mauvaise position de la région pour atteindre
l’objectif du PDDAA d’allouer 10 % des budgets publics à l’agriculture, comme réaffirmé
dans la Déclaration de Malabo sur la transformation de l’agriculture en Afrique (UA/
AUDA-NEPAD, 2020 ; CUA/OCDE, 2022)2. Dans la plupart des pays de la région, la part des
budgets publics consacrée au secteur agricole est ainsi instable ou en baisse depuis 2001.
Seuls le Sénégal et le Burkina Faso ont dépassé l’objectif des 10 %, à respectivement 11 %
et 10.5 % (AUDA-NEPAD, 2017). La Côte d’Ivoire (1.9 %), le Nigéria (2.2 %) et la Sierra Leone
(4.9 %) occupent de leur côté le bas du classement, tandis que le Bénin affiche une part
de 9.3 % (AUDA-NEPAD, 2017).
Par rapport à d’autres régions africaines, les investissements privés informels
jouent un rôle plus important en Afrique de l’Ouest que le crédit ou le financement du
développement, limitant ainsi la productivité et introduisant des risques pour les
fournisseurs informels. La formation brute de capital fixe (FBCF) – une mesure du total des
actifs fixes financés par l’ensemble des investissements – dans le secteur de l’agriculture,
DYNAMIQUES DU DÉVELOPPEMENT EN AFRIQUE 2023 : INVESTIR DANS LE DÉVELOPPEMENT DURABLE © CUA/OCDE 2023
247
7. Investir dans les chaînes de valeur agroalimentaires pour le développement durable en Afrique de l’Ouest
de la sylviculture et de la pêche de la région représentait ainsi plus du double des montants
combinés du crédit intérieur, des décaissements au titre du financement du développement
et des dépenses publiques en 2020 (23.1 milliards USD, contre 9.5 milliards USD ;
Graphique 7.9). Les investissements privés informels apparaissent donc comme la plus
grande source de financement de la production agricole de la région. La FBCF a également
augmenté beaucoup plus rapidement en Afrique de l’Ouest qu’ailleurs sur le continent,
et la part de la région dans la FBCF totale de l’Afrique est bien plus importante que ses
parts dans le crédit et le financement du développement à destination de la production
agricole (Tableau 7.2). La plupart des investissements privés intérieurs sont mobilisés par
les organisations d’agriculteurs et se concentrent principalement en amont (production)
des chaînes de valeur agroalimentaires. Si le financement privé informel joue un rôle
important pour les petits exploitants, il ne contribue cependant généralement pas à
l’amélioration de la productivité et peut créer des risques, avec notamment des taux
d’intérêt excessifs ou une faible responsabilité financière.
Tableau 7.2. Crédit intérieur, décaissements au titre du financement
du développement et formation brute de capital fixe dans le secteur de l’agriculture,
de la sylviculture et de la pêche, Afrique et Afrique de l’Ouest, 2010-20
Afrique
Afrique de l’Ouest
(part du total de l’Afrique)
Total (en milliards USD)
186.2
55.9 (30.0 %)
Taux de croissance annuel moyen
7.5 %
14.9 %
Total (en milliards USD)
49.6
13.5 (27.3 %)
Taux de croissance annuel moyen
6.9 %
18.2 %
Total (en milliards USD)
411.9
232.8 (56.5 %)
Taux de croissance annuel moyen
3.9 %
6.5 %
Crédit intérieur
Décaissements au titre du financement
du développement
Formation brute de capital fixe
Source : Calculs des auteurs à partir de FAOSTAT (2022d), Investissement (base de données), https://www.fao.org/
faostat/en/#data/CISP.
Les IDE et les financements mixtes sont volatiles et se concentrent sur les grandes
économies d’Afrique de l’Ouest, laissant apparaître un manque généralisé de financements
pour les investissements capitalistiques dans la productivité agricole et les activités d’aval,
comme la transformation. Essentiels aux activités d’aval (transport, transformation,
logistique, vente au détail), les investissements formels à grande échelle du secteur privé
dans ces segments restent toutefois rares en Afrique de l’Ouest (Encadré 7.2). Les IDE
en faveur de l’agro-industrie en Afrique de l’Ouest sont ainsi inférieurs aux dépenses
publiques au titre de la production agricole, avec des dépenses en capital annoncées pour
les projets d’IDE de 9 milliards USD sur la période 2017-22, soit 1.8 milliard USD par an en
moyenne. Au cours de cette même période, les IDE à destination de l’Afrique de l’Ouest
ont ciblé presque exclusivement les agro-industries du Nigéria (52 %), du Togo (22 %), de
la Côte d’Ivoire (15 %) et du Ghana (10 %), moins de 1 % allant à tous les autres pays de la
région considérés dans leur ensemble3. Les financements mixtes gagnent quant à eux en
importance, mais restent faibles en proportion des montants d’investissement globaux :
sur la période 2017-20, le financement du développement a ainsi mobilisé chaque année en
moyenne 228.8 millions USD de financements privés en faveur du secteur de l’agriculture,
de la sylviculture et de la pêche de la région4.
248
DYNAMIQUES DU DÉVELOPPEMENT EN AFRIQUE 2023 : INVESTIR DANS LE DÉVELOPPEMENT DURABLE © CUA/OCDE 2023
7. Investir dans les chaînes de valeur agroalimentaires pour le développement durable en Afrique de l’Ouest
Encadré 7.2. Production et transformation de la volaille en Afrique de l’Ouest
La volaille est une source de protéines de base en Afrique de l’Ouest, mais sa production et
sa consommation ne se concentrent que dans quelques pays. La viande de volaille représente
plus de 70 % de la consommation totale de viande en Afrique de l’Ouest, et sa demande ne
cesse d’augmenter avec la croissance démographique. En 2021, les trois premiers producteurs
(Côte d’Ivoire, Nigéria et Sénégal) comptaient pour 58 % des volumes de production, et trois
pays (Bénin, Ghana et Nigéria) totalisaient 52 % de la consommation. Par le passé, le Nigéria
produisait à lui seul 68 % du tonnage d’œufs de toute la région du Sahel et de l’Afrique de l’Ouest
(CSAO-OCDE/CEDEAO, 2008).
Alors que la demande de produits avicoles à valeur ajoutée augmente en Afrique de l’Ouest,
la production ne parvient pas à satisfaire la demande intérieure. Dans toute la région, les
consommateurs semblent délaisser les produits avicoles de base au profit de produits à plus
forte valeur ajoutée. Les petits exploitants, qui dominent le secteur avicole, n’ont toutefois pas
accès aux intrants, équipements et infrastructures adéquats (Adeyonu et al., 2021). Outre le peu
de soutien dont il bénéficie sous forme d’investissements publics dans les infrastructures de
transformation et de conditionnement, le secteur de l’élevage manque de politiques à même de
stimuler le commerce régional des produits animaux (Amadou et al., 2012). Le secteur pâtit de
coûts de production élevés, de contraintes de capacité et d’une faible productivité (Boimah et al.,
2022). Les investissements peuvent, dans ce contexte, renforcer la chaîne de valeur de la volaille
en palliant les lacunes en matière de production, de transformation, de commercialisation et
d’équipements/intrants (Salla, 2017), faute de quoi les pays d’Afrique de l’Ouest continueront de
dépendre des importations pour satisfaire leur demande intérieure en produits avicoles (CSAOOCDE/CEDEAO, 2008).
Des solutions existent pour améliorer la productivité et la compétitivité du secteur de la
volaille en Afrique de l’Ouest, et en réduire les coûts de production. La levée des obstacles
infrastructurels et l’amélioration de l’approvisionnement en intrants peuvent ainsi augmenter
la productivité, tandis que le développement de produits avicoles à valeur ajoutée, comme les
viandes transformées, contribuera à renforcer la compétitivité du secteur (Eeswaran et al., 2022).
L’Afrique de l’Ouest importe une grande quantité d’intrants avicoles (aliments pour animaux,
poussins d’un jour, etc.) pour répondre à sa demande. Le développement de la production locale
de ces intrants peut donc également contribuer à renforcer la compétitivité, et l’amélioration de
l’accès à d’autres intrants de qualité (aliments, œufs d’incubation, vaccins), à réduire les coûts
de production (Boimah et al., 2022).
Les investissements à grande échelle font souvent défaut, en particulier dans les segments
d’aval de la chaîne de valeur. Les investissements dans le secteur avicole ouest-africain sont
en majorité locaux, informels et à petite échelle, et lorsqu’ils existent, les investissements à
grande échelle se concentrent généralement sur la fourniture d’intrants en amont, à l’instar du
programme « Rearing for Food and Jobs » (RFJ), au Ghana, qui a permis la fourniture, à un prix
subventionné à 50 %, de 72 967 coquelets à 729 petits exploitants et de 43 183 poussins d’un jour
à 25 autres éleveurs de volaille (Boimah et al., 2022).
Fortement axés sur la production agricole primaire, les financements du
développement en faveur du secteur agricole négligent les activités d’aval et la protection
de l’environnement. En Afrique de l’Ouest, les activités agro-industrielles, comme
la transformation, la production laitière et les usines d’engrais, n’ont ainsi reçu que
546 millions USD de financements du développement sur la période 2010-20, soit 4 % des flux
totaux à destination du secteur agricole de la région, et la protection de l’environnement,
près de 1.7 milliard USD (soit 12 %)5. Si la production d’engrais reçoit désormais davantage
de soutien, les financements du développement à l’appui de la transformation et d’autres
DYNAMIQUES DU DÉVELOPPEMENT EN AFRIQUE 2023 : INVESTIR DANS LE DÉVELOPPEMENT DURABLE © CUA/OCDE 2023
249
7. Investir dans les chaînes de valeur agroalimentaires pour le développement durable en Afrique de l’Ouest
activités agro-industrielles ont en revanche stagné. Les engagements environnementaux
se sont de leur côté principalement concentrés sur la recherche et l’administration, au
détriment d’interventions directes dans les chaînes d’approvisionnement (Graphique 7.10).
Graphique 7.10. Financements du développement en faveur de l’agro-industrie
et de la protection de l’environnement en Afrique de l’Ouest, 2010-20,
en millions USD constants 2020
Politique environnementale et gestion administrative
Autres activités générales de protection de l'environnement
Usines d'engrais
Recherche sur l'environnement
Agro-industries
Autres agro-industries
Millions USD constants 2020
300
250
200
150
100
50
0
2010
2011
2012
2013
2014
2015
2016
2017
2018
2019
2020
Note : La catégorie « Agro-industries » comprend la transformation des produits alimentaires de base, les produits
laitiers, les abattoirs et leur équipement, la transformation et la conservation de la viande et du poisson, les huiles
et les graisses, les raffineries de sucre, les boissons et le tabac, ainsi que la production d’aliments pour animaux.
La catégorie « Autres agro-industries » englobe quant à elle les activités artisanales, les textiles, le cuir et ses
substituts, les activités forestières et les engrais minéraux. Enfin, la catégorie « Autres activités générales de
protection de l’environnement » regroupe la biodiversité, la protection de la biosphère, l’éducation et la formation
à l’environnement, et la protection des sites.
Source : Calculs des auteurs à partir de FAOSTAT (2022e), Investissement (base de données), www.fao.org/faostat/
en/#data/EA.
12 https://stat.link/k7lbtz
À l’heure actuelle, les investissements restent souvent inaccessibles aux petits
exploitants agricoles et sont entravés par l’informalité, la fragmentation et les
droits fonciers
Les petits exploitants agricoles se heurtent à d’importants obstacles pour accéder
aux financements qui leur permettraient d’améliorer leur productivité et la qualité de
leurs produits. Le principal obstacle entre petits producteurs et centres de consommation
urbains n’est désormais plus la distance géographique, mais plutôt le degré de
sophistication exigé par une part croissante des consommateurs, toujours plus friands
de produits prêts à cuisiner ou à manger (Badiane et al., 2022). Les petits exploitants (pour
majorité des entreprises informelles) se heurtent en effet à tout un ensemble d’obstacles
les empêchant d’accéder aux financements dont ils auraient besoin pour améliorer
la valeur de leur production (Encadré 7.3). Atténuer ces barrières peut avoir des effets
conséquents : au Nigéria, plus de 80 % des agriculteurs entrent dans la catégorie des petits
exploitants (Mgbenka et Mbah, 2016). On compte notamment parmi ces obstacles :
• Les
exigences élevées en matière de garanties entravent l’accès des petits
exploitants agricoles et des entrepreneurs agroalimentaires au crédit, les
empêchant ainsi d’investir dans l’amélioration de leurs pratiques et technologies.
Les petits exploitants agricoles et les entrepreneurs agroalimentaires peinent
souvent à trouver les garanties adéquates pour obtenir des prêts (le manque de
clarté des droits fonciers peut notamment constituer un frein, en particulier pour
250
DYNAMIQUES DU DÉVELOPPEMENT EN AFRIQUE 2023 : INVESTIR DANS LE DÉVELOPPEMENT DURABLE © CUA/OCDE 2023
7. Investir dans les chaînes de valeur agroalimentaires pour le développement durable en Afrique de l’Ouest
les femmes victimes de normes sociales discriminatoires [OCDE, 2021c]) et le
financement bancaire de l’amélioration de la productivité et de l’innovation reste
donc faible (SFI, 2019). Au Burkina Faso, où les petits exploitants dominent l’industrie
agroalimentaire, moins de 4 % des prêts bancaires ciblent ainsi le secteur agricole,
malgré sa contribution à hauteur de 27 % au PIB du pays (SFI, 2019).
• Les pénuries d’intrants (comme les engrais) et l’augmentation de leur prix nuisent
aux petits exploitants agricoles. L’onde de choc des conflits internationaux en 2022
a fait tripler le coût des engrais (Banque mondiale, 2022b). L’Afrique de l’Ouest
dépend des importations d’engrais, avec par exemple la fourniture par la Russie
de plus de 50 % de la potasse à la Côte d’Ivoire, au Mali, au Niger, au Sénégal et à
la Sierra Leone en 2021. En avril 2022, seuls 46 % des besoins en engrais étaient
ainsi satisfaits en Afrique de l’Ouest et au Sahel (PAM, 2022). Or, les pénuries
d’engrais et leur coût élevé risquent de réduire leur utilisation et, du même coup, les
rendements (PAM, 2022 ; Banque mondiale, 2022b). Les petits exploitants agricoles,
les communautés rurales et les exploitations familiales, qui peinent à accéder aux
financements et sont éloignés des grandes zones urbaines, apparaissent à cet égard
particulièrement vulnérables (Oxfam, 2022).
• Le manque d’informations sur les produits financiers et les études de marché entrave
la capacité des petits acteurs des chaînes de valeur agroalimentaires à transformer
leur production. Les barrières linguistiques freinent la diffusion des informations
sur les financements durables disponibles, et donc leur utilisation, comme l’illustre
le cas des fonds verts, dont les informations sont souvent fournies uniquement en
anglais (Lipton, 2022). Les petites et moyennes entreprises (PME) ne disposent en
outre généralement pas des investissements nécessaires pour mener une étude
plus approfondie des tendances de la consommation alimentaire et concevoir ainsi
les stratégies qui leur permettraient de mieux capter la demande (FAO, 2015).
Encadré 7.3. La chaîne de valeur du manioc en Afrique de l’Ouest
L’Afrique de l’Ouest est un grand producteur de manioc, qui joue un rôle essentiel dans la
sécurité alimentaire de la région. Denrée vivrière de base en Afrique de l’Ouest, le manioc peut
en effet, grâce à sa résistance à la sécheresse et aux mauvaises conditions des sols, atténuer les
risques pesant sur la sécurité alimentaire (Hershey et al., 2000 ; Howeler et al., 2013). Dans la
région, sa production se concentre donc principalement sur la satisfaction de la forte demande
intérieure, comme dans le delta du Niger au Nigéria, où environ 80 % de la demande de manioc
est intérieure (PIND, 2011). Au Ghana, il s’agit de la denrée vivrière la plus consommée, avec une
consommation annuelle de 152 kg par habitant (Acheampong et al., 2021). En 2020, la production
de manioc de l’Afrique de l’Ouest représentait 33 % et 52 % des volumes de production mondiaux
et africains, respectivement (CUA/OCDE, 2022). Le Nigéria est le premier producteur de la planète,
comptant à lui seul pour 23.5 % de la production mondiale. Malgré une production élevée, la
région peine toutefois à capter la demande internationale (émanant en partie de la diaspora),
le manioc d’Afrique de l’Ouest ne représentant ainsi que 0.33 % des exportations mondiales de
manioc (ITC, 2022b).
Le manque de crédits abordables empêche la pleine réalisation du potentiel de rendement du
manioc. En Sierra Leone, seuls 2 % des agriculteurs ont ainsi accès au crédit, canaux informels
compris. En outre, 80 % de ceux parvenant à y accéder subissent des retards dus à la complexité
des processus administratifs (Coulibaly et al., 2014). La levée des freins au financement,
notamment grâce aux institutions de micro-finance et aux financements du développement,
peut aider à l’acquisition de variétés de manioc à meilleur rendement, ainsi que d’engrais,
pesticides et autres équipements agricoles (Coulibaly et al., 2014 ; MoFA of Ghana, 2019). Par
DYNAMIQUES DU DÉVELOPPEMENT EN AFRIQUE 2023 : INVESTIR DANS LE DÉVELOPPEMENT DURABLE © CUA/OCDE 2023
251
7. Investir dans les chaînes de valeur agroalimentaires pour le développement durable en Afrique de l’Ouest
Encadré 7.3. La chaîne de valeur du manioc en Afrique de l’Ouest (suite)
exemple, au Ghana, qui affiche les taux de productivité les plus élevés de la région, avec un
rendement moyen de 21 tonnes métriques par hectare (Mt/ha) (Acheampong et al., 2021), la
productivité reste toutefois inférieure au potentiel de rendement, estimé à 45 Mt/ha (MoFA of
Ghana, 2019). L’amélioration de l’accès des agriculteurs au crédit pourrait donc augmenter la
production tout en contribuant à la sécurité alimentaire.
L’augmentation de la production régionale de dérivés du manioc à valeur ajoutée peut remplacer
certains produits d’importation. Servant d’intrant dans de nombreux produits alimentaires
(nouilles, desserts traditionnels, édulcorants), le manioc peut aussi être utilisé dans différentes
industries non alimentaires, en substitution de produits largement importés. La majeure partie
de l’amidon à usage industriel en Afrique de l’Ouest est ainsi importée, pour un montant total
de 51.3 millions USD en 2020 (OCDE, 2020), alors que l’amidon de manioc pourrait parfaitement
s’y substituer ; tout comme la farine de manioc de haute qualité peut être utilisée à la place de
la farine de blé (CABRI, 2019 ; ITC, 2022b), ou encore l’éthanol à base de manioc peut remplacer
l’éthanol destiné aux secteurs des boissons, de l’alimentation, des produits pharmaceutiques
et du secteur manufacturier, comme l’illustrent avec succès les distilleries Allied Atlantic au
Nigéria et l’usine d’alcool YUEN au Bénin (ITC, 2022b).
| 46,997
|
21/halshs.archives-ouvertes.fr-tel-01241740-document.txt_3
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 10,451
| 17,204
|
en comparaison de, it. a paragone di, port. em comparação de, etc.), les prépositions passées en revue dans cette section sont donc toutes au moins compatibles avec le schéma locatif.
3.2.6 Du spatial au discursif
J'ai étudié dans cette optique quatre types d'évolution aboutissant à la formation d'un marqueur discursif, et partant : (a) (b) (c) (d) de l'adverbial (préposition + groupe nominal, type au fond) de l'adverbe (type parallèlement) de l'adverbe déictique (type ici, là) de formes verbales (type regarde, voici) Pour chaque type, j'ai trouvé soit des confirmations très nettes de l'hypothèse localiste, soit des éléments compatibles avec cette hypothèse, soit, enfin, des éléments qui m'ont amené à la réviser légèrement.
3.2.6.1 Arguments forts
Ainsi, l'étude sur corpus, en diachronie, des adverbiaux au fond et d'un côté (Fagard & Sarda 2014 [IV : 435 sqq.]) a bien montré que les emplois spatiaux sont nettement antérieurs aux emplois discursifs (la situation est moins nette, cependant, pour d'un côté, voir ci-dessous). Les premiers emplois repérés dans les corpus pour au fond ne présentent aucune ambiguïté, tandis que les emplois abstraits n'apparaissent que légèrement plus tard, et les emplois discursifs nettement plus tard. On peut faire exactement la même observation concernant parallèlement (ibid. et Sarda & Charolles 2009), bien que ses emplois discursifs ne soient pas du même type que ceux de au fond en français moderne. Les premiers emplois sont spatiaux (30a-b), les emplois métaphoriques ou abstraits (31a-b) et discursifs (32a-b) apparaissant plus : (30a) celui trova qui se tapist desoz au fonz. « il en trouva un qui s'était tapis dessous, tout au fond » (BFM, Enéas, p. 176, 1150) (ancien français) (30b) (français prémoderne) Ce sont des couches de nuages minces, qui marchent parallèlement les unes aux autres (Frantext, Charles Bonnet, Considérations sur les corps organisés, p. 161, 1762) (31a) il ne puet estre a nul fuer Qu'il n'ait emprainte ou fons dou cuer Et seelee en son corage Cele semblance, cele ymage Ou estudie adez et pense 54 (ancien français) « Il ne peut être en aucune manière qu'il n'ait, gravé au fond du coeur et celée en sa volonté, cette image qui fait sans cesse l'objet de son étude et de sa pensée » (BFM, Gautier de Coinci, Miracles de Nostre Dame, p. 313, 13ème siècle) (31b) (français prémoderne) Ces paroles étaient, pour ainsi dire, le point de jonction de deux scènes qui s'étaient jusque-là développées parallèlement dans le même moment, chacune sur son théâtre particulier, l'une, celle qu'on vient de lire, dans le Trou aux Rats, l'autre, qu'on va lire, sur l'échelle du pilori. (Frantext, Victor Hugo, Notre-Dame de Paris, 1482, p. 296-297, 1831) (32a) (français prémoderne) Il y a dans notre position des choses embarrassantes, mais il faut les supporter et nous en tirer ensemble. Au fond, j'ai eu tort de la laisser exposée à une situation dont elle-même m'avait averti. Si elle se refuse à mes prières, c'est autre chose. (Frantext, Benjamin Constant, Journaux intimes, p. 420-421, 1816) (32b) (français moderne) Cette substitution est devenue chez Pirandello une critique de la notion de réalité. Et, parallèlement, chez les dramaturges psychologues, plus particulièrement chez les français, un thème théâtral nouveau, () le "que suis-je" a pris la place du "comment agir?" (). (Frantext, Collectif, Arts et littérature dans la société contemporaine, t. 2, p. 3008, 1936) L'apparition des emplois discursifs se fait, pour les deux adverbiaux, selon un processus complexe de grammaticalisation qui sera décrit plus en détails dans la partie § 4.
3.2.6.2 Illustrations
Pour d'un côté, on peut également observer des emplois discursifs, où toute interprétation spatiale est exclue : (33) (français contemporain) en même temps moi d'un côté j'suis jeune (interview d'Ali (nom d'emprunt), 23 ans, banlieue parisienne , France Info, le 6 décembre 2012) Cependant, la situation est moins claire dans la mesure où, dès les premières attestations, on trouve des emplois spatiaux et non spatiaux (Fagard & Sarda 2014 [IV : 457-461]). S'il est raisonnable de penser que les emplois spatiaux sont premiers, étant donné le sémantisme des éléments composant l'adverbial (de, un, côté), on ne peut donc pas l'avancer comme argument pour l'hypothèse localiste, puisque l'étude sur corpus n'a pas établi l'antériorité des emplois spatiaux. Il en est de même pour les adverbes déictiques dans les langues romanes et slaves, étudiés pour mon projet « Espace et grammaticalisation » (communication, Fagard, Sikora & Stosic 2011). Dans les deux groupes de langues, nous avons trouvé des phénomènes compatibles avec l'hypothèse localiste, sans pouvoir démontrer que les emplois spatiaux sont premiers, du moins sur la base d'études sur corpus. Ainsi, on trouve des emplois évaluatifs et discursifs pour le serbe tu et ovde « ici » (médial pour tu, proximal pour ovde) et pour le polonais tu « ici » et tam « là, là-bas », illustrés ci-dessous pour le polonais tam (34-35) ; ces emplois se trouvent ailleurs, comme en espagnol allá (36) (Fortis & Fagard 2011 [VI : 734]) : (34) (polonais) 55 Mów sobie! tam 'parler.IMP.2SG [là] soi.DAT!' « vas-y, cause toujours! » (exemple construit) 19 (35) Kupił sobie nowy samochód tam 'acheter.3SG.M.PST soi.DAT [là] nouveau.ACC.NT voiture.ACC' « il s'est acheté une nouvelle voiture (et je m'en fiche bien) » (exemple construit) (polonais) (36) Pon el libro allá arriba « met le livre par là, en hauteur » (Carbonero Cano 1979 : 89) (espagnol) Nous avons trouvé confirmation sur corpus de l'existence de ces emplois (spatiaux et discursifs, mais aussi temporels) pour la plupart des adverbes déictiques en serbe, polonais, espagnol, portugais, italien et français, mais nous n'avons pas trouvé d'éléments attestant de l'antériorité des emplois spatiaux, parce que ces constructions sont polysémiques dès les premiers textes. Cela nous renvoie à la question de la vitesse des changements, à laquelle je reviens dans la section §4.5.
3.2.6.3 Reformulations
L'étude de conjonctions et de marqueurs discursifs figurait déjà dans mon programme de recherches présenté pour le concours CNRS (2007), précisément parce qu'il me semblait que, a priori, l'analyse de ces parties du discours était susceptible de fournir des contre-exemples à l'hypothèse localiste. Il est vrai que les origines de ces constructions sont rarement spatiales – ou moins souvent, du moins, que pour les prépositions. Mais certaines études, plutôt que d'apporter de réels contre-exemples, m'ont amené à reformuler ce que j'entends par localisme. Le cas des marqueurs discursifs formés sur un impératif (regarde 20, écoute, etc. : Fagard 2010b [IV : 587 sqq.], 2012b) est particulièrement intéressant, puisqu'on peut observer un glissement qui n'est pas exactement du type [ESPACE > AUTRES DOMAINES]. De la même manière que les études sur corpus d'un certain nombre de prépositions m'ont amené à suivre les propositions de Herskovits (1982) et Vandeloise (1986) concernant l'analyse fonctionnelle, l'étude des marqueurs discursifs m'a amené à suivre une hypothèse plus large que le localisme simple : ce n'est pas simplement l'espace qui est utilisé pour construire notre vision du monde, mais l'ensemble du système de perception, pour lequel l'espace constitue un facteur fondamental. 12-13). Je suis de ce point de vue en plein accord avec ce que Bernard Victorri appelle les « grammaires cognitives » : [dans le courant des grammaires cognitives, c'est-à-dire de la linguistique cognitive au sens de Lakoff, Langacker, Talmy, Fauconnier, Sweetser, Goldberg, Turner] la perception visuelle et l'expérience sensori-motrice jouent un rôle central dans la compréhension de la structure sémantique du langage. (Victorri 2004 : 74) Les emplois concrets – que l'on pourrait également appeler'situés' – des impératifs de verbes de perception sont en effet largement antérieurs à leurs emplois discursifs ; on trouve d'abord des emplois intégrés et proches du sens d'origine (37-38) avant de trouver des emplois plus ambigus (39-40), puis enfin des emplois clairement discursifs (41-42) : (37) (espagnol médiéval) ¿Non bastan tus propios males e particulares penas, que con las glorias ajenas sientas tormentos mortales? mira que todos yguales en este mundo venimos, e assí mesmo morimos, mas bivimos desiguales. « Est-ce que tes propres douleurs et peines ne te suffisent pas, pour que tu ressentes des tourments mortels à voir la gloire des autres? [regarde] que nous arrivons tous égaux dans ce monde, et que nous en partons de même, mais nous vivons inégaux » (Corde, Cancionero castellano, p. 283, 15ème siècle) (38) regarde chu ki est presens et chu ki est a uenir. « [regarde] ce qui est présent et ce qui est à venir » (NCA, Gloses wallonnes, p. 201, 1290) (ancien français) (39) (moyen français) car regarde a ton afaire si te retien de mal a faire dont tu mes t'ame en grant dolor « [regarde] donc à ton affaire et re tiens-toi de faire du mal et soumettre ainsi ton âme à des douleurs atroces » (NCA, Verite, l. 1181, 1450) (40) (espagnol médiéval) E llamaron al portero del castillo e dixeron: – Cata aquí presos que traemos al rey Artur; e liévagelos e mira que no pierdas ninguno dellos, ca te dezimos, cierto, que tu señor nunca tan grand plazer uvo ni vio como éste. « Ils appelèrent le garde à la porte du château et lui dirent : – vois ici les prisonniers que nous apportons au roi Arthur ; toi, amène-les-lui, et [regarde] à n'en perdre aucun, car nous te disons, avec certitude, que ton seigneur n'a jamais eu un si grand plaisir que celui-ci » (Corde, El baladro del sabio Merlín con sus profecías, Fol. 60 R°, 15ème siècle) (41) (italien médiéval) Se tu voli biasimare o riprendere altrui, guarda che tu non sia magagnato di quello vizio medesimo « Si tu veux blâmer ou reprendre autrui, [regarde] à ne pas être dévorer par ce vice » (OVI, Tesoro di Brunetto Latini volgarizzato, p. 253, 1300) (42) (espagnol médiéval) No, mujer, no me altero pero a lo menos que oiga el que yo la propongo, que le conozca y le trate, y después mira, Bernardo a la hora esta debe haber llegado ya de Barcelona; habrá consagrado los primeros instantes a sus parientes; pero de un momento a otro le tendremos aquí, y es preciso recibirle como a quien viene a ser mi yerno 57 « Non, femme, je ne suis pas en colère mais au moins entends ce que j'ai à te proposer, apprends à le connaître et traite-le bien, et ensuite [regarde], Bernardo à cette heure doit être arrivé déjà de Barcelone ; il aura consacré ses premiers instants à ses parents ; mais d'un moment à l'autre nous l'aurons ici, et il faut le recevoir comme le mérite celui qui deviendra mon gendre » (Corde, Mariano José de Larra, No más mostrador, p. 18, 1831) Ce type de résultat m'a amené à une interprétation plus proche de l'embodiment que du localisme : ce qui compte n'est pas tant l'espace que l'espace vécu, ce qui renvoie à la notion de perception notée plus haut (comme l'a montré, entre autres, Vandeloise).
3.2.7 Après l'espace
Je présente dans cette section des évolutions ayant un autre point de départ que l'espace, mais qui ne remettent pas en question l'hypothèse localiste puisqu'elles montrent simplement que, à partir d'un sens second, l'évolution peut continuer. Le cas le plus fréquent dans les éléments que j'ai étudiés est constitué par les évolutions partant d'un sens temporel. Etudiant l'évolution sémantique de prépositions, conjonctions et marqueurs discursifs en français et dans les langues romanes, j'ai trouvé trois types d'extensions partant de sens temporels : (a) des évolutions internes au domaine temporel – l'évolution de puis, du sens 'après' au sens 'depuis' ; (b) des évolutions du temporel à d'autres domaines abstraits – l'extension sémantique de puis temporel au logique ; (c) enfin, des extensions du temporel au spatial – l'extension sémantique de puis et depuis, du temporel vers le spatial : un contre-exemple seulement en apparence (cf. Fagard 2007 [I : 116-117]). J'ai pu montrer que, dans ce type d'évolution, les mêmes mécanismes de grammaticalisation (et, dans certains cas, de subjectivation, au sens de l'anglais subjectification, Traugott 2003, 2007b, 2010) sont à l'oeuvre que pour les constructions ayant une origine spatiale. Ainsi, l'affaiblissement sémantique, qui est en fait plutôt une perte en référencialité, se fait de la même façon. Nous verrons ces derniers exemples dans la section suivante. (
a) évolutions internes au domaine temporel
La préposition puis a presque exclusivement le sens 'après' en ancien français. Elle institue alors une distinction entre deux états, un « avant » et un « après ». Cependant, il se développe progressivement une distinction entre des emplois avec ce sens d'origine et un sens que l'on peut gloser par 'depuis'. C'est pour cette raison que j'ai désigné dans ma thèse l'extension sémantique de 'après' (puis demain « après demain ») à 'depuis' (depuis deux ans) comme un phénomène de subjectivation. Cette évolution sémantique est accompagnée d'une évolution morphologique, le sens étant marqué peu après son apparition par une forme spécifique, préfixée en de- : la préposition depuis, qui apparaît au 12ème siècle et supplante assez rapidement la forme puis dans les emplois prépositionnels.
(b) évolutions du temporel à d'autres domaines abstraits
Les extensions du temporel au causal sont bien connues également, et j'ai effectivement pu observer un certain nombre d'occurrences isolées montrant une tendance à ce type d'inférence pour des prépositions dont le sens prototypique est temporel. Ainsi, pour puis, depuis et 58 despuis, on trouve quelques occurrences où au sens temporel s'ajoute par inférence un sens logique, qui peut être causal ou concessif : (43) (moyen français) En la dicte conté nagueres avoit ung jeune filz orphenin, qui bien riche et puissant demoura puis le trespas de son pere et sa mere. « Il y avait il y a peu, dans la comté, un jeune orphelin, qui demeura riche et puissant après la mort de ses parents. » (BFM, Les cent nouvelles nouvelles, p. 131, 1515) (44) (français préclassique) Elle, se mocquant, secoua la teste, me disant : « je voudrois avoir ce qu'il s'en faut ». Despuis ceste fortune la damoiselle s'est recongneue, et n'a plus esté si nice. « () Depuis cette aventure, la demoiselle () n'a plus été aussi naïve. » (Frantext, Le moyen de parvenir, p. 250-251, 1610) La rareté de ces exemples semble indiquer qu'il ne s'agit là que d'inférences contextuelles, qui ne se sont pas figées en un sens lexicalisé de la préposition. On trouve ce type d'extension de manière beaucoup plus nette pour les conjonctions (Heine & Kuteva 2002 : 275-276, Traugott & König 1991 : 194, Fagard 2008b [VI : 929 sqq.], Fagard 2009b [III : 343 sqq.]), selon plusieurs chaînes de grammaticalisation possibles (cf. §5) : [PENDANT] > [CONCESSIF] (anglais while, allemand während, baka, bulgare, créole des Seychelles) [APRES] > [CAUSE] (it. dal momento che, fr. puisque, angl. since), [APRES] > [ADVERSATIF] (vaï, lingala), [APRES] > [CAUSAL] (vieux haut allemand weil, latin, français quand, finnois, estonien, roumain) [APRES] > [CONDITIONNEL] (hittite, tagalog, indonésien, karok) (Heine & Kuteva 2002) Evolutions possibles (et attestées) sur la base de conjonctions temporelles Si l'évolution sémantique suit des parcours similaires, l'aboutissement sémantique ces évolutions n'est jamais spatial. Une question demeure, celle de la fréquence relative des deux types d'évolution : d'après la théorie localiste, même redéfinie selon mes propres critères énoncés ci-dessus, on pourrait s'attendre à ce que la grammaticalisation s'opère plus fréquemment sur des termes spatiaux que sur des termes non spatiaux. Mais comment tester cette hypothèse? Cela me semble une gageure. Même un inventaire complet des grammaticalisations dans une langue donnée (inventaire qui reste à faire, et me paraît déjà une entreprise hasardeuse) ne saurait résoudre définitivement le problème qui se pose au chercheur : comment pondérer? La solution que j'ai adoptée jusqu'ici est de faire des études séparées pour différentes classes de mots. À partir d'inventaires des prépositions de 7 langues romanes (catalan, espagnol, français, italien, occitan, portugais, roumain), j'ai pu montrer que l'on peut reconstruire une origine spatiale pour une grande majorité des formes grammaticalisées (Fagard 2010a). Cependant, une étude similaire (bien que moins étendue) sur les conjonctions de cause dans les langues romanes a donné – sans surprise – un résultat inverse (Fagard 2009c [III : 343 sqq.]), confirmé par une étude sur les conjonctions en général (Fagard 2011a [III : 293 sqq.]). Il semble donc qu'il y a, selon les classes de mots, une proportion plus ou moins importante de phénomènes de grammaticalisation à partir de termes spatiaux. Les études menées dans le cadre du projet « Espace et grammaticalisation » laissent d'ailleurs penser que les marqueurs discursifs se situent entre ces deux pôles : on trouve un 59 nombre important de marqueurs formés sur des termes spatiaux (par exemple au fond, parallèlement, Fagard & Sarda 2014 [IV : 435 sqq.]), mais il ne s'agit probablement pas de la majorité comme pour les prépositions.
3.2.8 Des contre-exemples?
Ces questions m'ont amené à étudier l'origine et l'évolution sémantique de termes ou constructions semblant contredire l'hypothèse localiste. Ainsi, on trouve de nombreuses prépositions principalement temporelles qui ont des emplois spatiaux, ou du moins sont employées dans des contextes spatiaux. Les exemples ci-dessous illustrent bien cette possibilité : (45) (ancien français) Les Turs nous vindrent hardoiant jusques en nostre ost ; pour ce commanda le roy que l'en cloussit nostre ost de fossés par devers Damiete depuis le fleuve de Damiete jusques au flum de Rexi. « Les turcs vinrent nous narguer jusque dans notre campement ; c'est pourquoi le roi ordonna que l'on entour le camp de fossés, du côté de Damiette, depuis le fleuve de Damiette jusqu'à celui de Rexi. » (BFM, Jean de Joinville, La vie de saint Louis, p. 197 Pendant des années, j'ai vu cette chambre et ces rideaux comme je les voyais depuis le lit où j'étais couchée. (Frantext, Annie Ernaux, L'événement, p. 85, 2000) Cependant, on peut donc se demander, pour ce type d'emploi, (i) quel est le détail des étapes qui ont permis leur émergence, en particulier quel est le rôle des contextes de déplacement, et des emplois de mouvement fictif ; (ii) s'il s'agit réellement de sens lexicalisés, ou simplement d'inférences contextuelles ; (iii) si d'autres phénomènes entrent en jeu, comme celui de répartition des emplois pour des prépositions proches formellement, ou l'apport sémantique d'un préfixe spatial. On peut noter que les emplois spatiaux du moyen français se rapprochent du mouvement fictif (exemple 45), et qu'il y a toujours un mouvement sous-entendu (dans l'exemple en question, le mouvement des ouvriers, d'un fleuve à l'autre), à la différence de leur emploi en français moderne (dans l'exemple 46, 'il' ne bouge pas). En effet, dans le cas de la trajectoire avec mouvement réel, on peut continuer à avoir une lecture temporelle : (47) (français contemporain) Elle vient du Trocadéro, mais a dû marcher depuis la place Clichy parce qu'un soldat allemand s'est jeté sous le métro. (Frantext, Anne-Marie Garat, Dans la main du diable, p. 235, 2006) pourra ainsi être lu comme « elle a marché depuis le moment où elle était place Clichy ». Il y a donc extension sémantique avec conservation des deux lectures, même si la lecture spatiale prévaut. Or l'extension spatiale avec mouvement fictif, la plus éloignée du sens temporel d'origine, est également la plus tardive. On a ici une parfaite illustration d'une extension métonymique, avec des extensions radiales progressives à partir du sens de base : [DEPUIS 60 (TEMPOREL)] > [DEPUIS (SPATIAL AVEC MOUVEMENT)] > [DEPUIS (MOUVEMENT FICTIF)]. Cependant, l'évolution de depuis du temporel au spatial (à laquelle se réfère Haspelmath 1997 : 142) est en fait clairement liée à l'ajout du préfixe de-, lui-même spatial. Il ne s'agit donc pas d'une évolution spontanée ou naturelle du temps à l'espace ; donc pas d'un contreexemple au localisme. Dans les autres cas que j'ai étudiés, comme envers, vers, devers (Fagard 2002 [I : 137 sqq.]), avant, devant (Fagard 2012d [I : 29 sqq.]), etc., pour lesquels on pourrait penser qu'il y a un passage du temporel au spatial, le processus à l'oeuvre n'est pas réellement une évolution mais un rééquilibrage, c'est-à-dire une perte des emplois temporels au profit des emplois spatiaux. Enfin, un dernier mécanisme est celui de l'apparition d'emplois spatiaux de prépositions temporelles, mais à la marge, dans des contextes très spécifiques, comme (48) (français contemporain) Suivre la direction Audrieu (3 km), rentrer dans le village, passer devant l'église ; le Château se situe à peu près à 100 mètres après l'église sur la gauche. (internet, http://www.chateaudaudrieu.com/fr/situation-et-plan-acces.php) Un argument pour considérer qu'il ne s'agit pas d'une réelle lexicalisation est que pour depuis par exemple, ces emplois sont très rares, et le restent pendant toute la période où la préposition est attestée. 3.3 Résultat : un localisme revisité
Ces études m'ont ainsi permis d'affiner les conclusions de ma thèse, où j'affirmais prudemment qu'un certain nombre de chaînes sémantiques étudiées « respecte tout à fait le principe de la primauté du spatial » (Fagard 2010a : 396). Je reformulerais comme suit : (i) il ne s'agit pas vraiment, ou pas seulement, d'espace – mais de perception du monde au sens large : espace-temps, modes de perception (surtout visuelle et auditive) l'hypothèse de la primauté du spatial ne peut être préservée qu'au prix d'une reformulation ou d'une précision terminologique : il ne s'agit pas réellement d'espace, ou pas d'espace réel, objectif. Ce qui est en jeu est l'espace perçu, subjectif, vécu. C'est aussi la question étudiée par Camille Colin dans sa thèse (que je co-dirige avec Sophie Prévost), qui porte spécifiquement sur les relations entre espace et temps. D'après elle, le temps ne pouvant être vécu indépendamment de sa relation à l'espace (avant tout parce que le sujet est doublement ancré dans le temps et dans l'espace), et inversement, l'espace ne pouvant être vécu indépendamment de la situation temporelle d'un observateur, les deux dimensions ne peuvent être dissociées. (Camille Colin, résumé de communication) (ii) La configuration spatiale est toujours première en diachronie (pour les adverbes et prépositions ayant des emplois spatiaux). Cependant, elle peut ne pas être seule, même à l'origine ; et elle tend souvent à donner lieu à des interprétations non spatiales, dès ses premiers emplois, comme on peut le voir pour les emplois de derrière ou encore a chief de en français médiéval. Les premiers emplois spatiaux l'on observe peuvent même être métaphoriques, comme dans le cas de au-dessus de, ou fonctionnels, comme dans le cas de en lieu de (Fagard & De Mulder 2007 [II : 244-246]). (iii) Un adverbe ou une préposition peuvent gagner en spatialité, mais uniquement dans des circonstances exceptionnelles. Par ailleurs, cela ne donne généralement pas lieu à une lexicalisation, et enfin, il ne s'agit pas réellement d'une évolution sémantique, mais plutôt d'un rééquilibrage (on peut se demander si cela est également vrai pour les verbes, cf. Aurnague 2011 sur les verbes de mouvement). L'espace dans la langue
Il semble évident que, pour avancer dans le déchiffrage du rôle de l'espace dans l'évolution des langues et en particulier la grammaticalisation, il est important de comprendre comment chaque langue permet de conceptualiser l'espace. La première question est donc de savoir comment les locuteurs de différentes langues décrivent l'espace. Mes travaux sur le localisme m'ont ainsi progressivement amené à m'intéresser à l'espace non seulement comme source de grammaticalisation mais pour lui-même, avec une attention particulière portée à la question suivante : puisque les mots spatiaux d'une langue n'ont pas réellement ou du moins pas uniquement un sens spatial, qu'utilisent-elles pour décrire l'espace? Les recherches issues de ces interrogations s'inscrivent dans un large courant de recherche de la linguistique d'inspiration cognitive des trente dernières années, avec quelques détours notables par la psycholinguistique et la typologie. Les études sur l'espace dans la langue sont légion, et il serait vain de tenter d'en rendre compte exhaustivement – citons juste en passant Aurnague (2004), Borillo (1998), Fillmore (1997), Heine (1989, 1997a, 1997b), Hickmann & Robert (2006), Landau (2009, 2012), Langacker (1987, 1991a, 1991b), Levinson (2003), Slobin (1996a, 2004), Svorou (1994), Talmy (2000), Vandeloise (1986), Zelinsky-Wibbelt (1993). Une des questions les plus fascinantes, de ce point de vue, est la réflexion déjà mentionnée sur la relativité linguistique. En fait, la question est double : (a) quelles contraintes les systèmes linguistiques posent-ils au locuteur lors de la description du réel? (b) ces contraintes ont-elles des répercussions cognitives? On peut également les formuler différemment : y a-t-il des invariants dans la manière dont l'être humain perçoit (spatialement) le monde qui l'entoure? Cette perception est-elle simplement codée ou plutôt informée (transformée?) par la langue, conformément à l'hypothèse de Slobin (« thinking for speaking », Slobin 1996b)? La langue est-elle un reflet de notre conception de l'espace (et du monde) ou bien une grille de lecture, qui nous amène à mieux percevoir certaines choses, nous empêche d'en voir d'autres? Toutes ces questions ont été au centre des débats de ces dernières années, en particulier en lien avec les travaux de Bowerman, Slobin, Talmy, Evans et bien d'autres. In recent years, a major focus of analysis in the domain of space has been the relationship between language and cognition (Landau and Jakendoff, 1993; Levinson, 2003; Majid et al., 2004). Les relations spatiales statiques Le déplacement Le mouvement fictif L'asymétrie source / but 65
La question posée par mes recherches porte principalement sur les outils présents dans les langues pour décrire chaque type de relation spatiale. J'ai entamé cette réflexion pendant ma thèse et je l'ai poursuivie dans le cadre de ces trois projets de recherche, Trajectoire, ET et EoSS. Les résultats présentés dans cette section sont issus principalement de mon travail dans le cadre de trois projets de recherche. J'ai collaboré aux deux premiers, Trajectoire, un projet de la fédération Typologie et Universaux du Langage du CNRS (2006-2008 & 2010-2012), et EoSS (Evolution of semantic systems), un projet du Max Planck de Nimègue (2011-2014). Le projet Trajectoire, dirigé par Colette Grinevald, Jean-Michel Fortis, Anetta Kopecka et Alice Vittrant, avait pour objectif d' « Etudier l'expression de la Trajectoire en décrivant les stratégies employées par un échantillon des langues du monde et en élaborant une typologie des modes d'expression de la trajectoire fondée sur ces descriptions » (http://www.ddl.ishlyon.cnrs.fr/trajectoire/). Il a réuni jusqu'à vingt collaborateurs travaillant sur des langues d'Europe, d'Afrique, d'Océanie, d'Asie et des Amériques, avec pour philosophie la production d'une méthodologie commune, qui soit adaptée à la diversité linguistique représentée dans le projet. Le résultat le plus probant du projet, outre une série de publications dont l'une est parue en 2011 (numéro spécial des Cahiers de Faits de langue) et les autres en préparation, est la mise au point d'un outil d'élicitation que je décris plus bas. Le projet EoSS (Evolution of Semantic Systems), dirigé par Michael Dunn, Fiona Jordan et Asifa Majid (MPI, Nimègue), vise à étudier variation sémantique dans l'espace et dans le temps, à partir d'élicitations dans une cinquantaine de langues sur quatre catégories : les récipients, la couleur, les parties du corps et les relations spatiales (http://www.mpi.nl/departments/other-research/research-consortia/eoss). À la différence du projet précédent, la réflexion théorique et méthodologique est pilotée entièrement par les directeurs du projet, qui ont confié la récolte des données pour chaque langue à un chercheur ou une équipe de chercheurs spécialiste(s). Pour ce projet, j'ai piloté la récolte des données en occitan, effectuée sur le terrain par Xavier Bach (doctorant à l'Université d'Oxford). J'ai également obtenu, en 2011, un financement du Labex TransferS pour mon projet ET (« De l'espace au temps : cadres de référence et interférences culturelles », 2011-2016), visant à réutiliser les données récoltées dans le cadre du projet Trajectoire, en collaboration avec Jordan Zlatev (Université de Lund, Suède). Le but du projet ET est de « s'interroger sur la part d'arbitraire dans l'évolution linguistique, en comparant les invariants linguistiques et le rôle joué par la culture dans un type spécifique d'évolution : le passage de l'espace au temps ». Il s'agit de partir des données récoltées à l'aide d'outils d'élicitation pour dresser la liste des termes utilisés dans différentes langues pour décrire les relations spatiales, puis de voir dans quelle mesure ces mêmes termes sont utilisés pour décrire les relations temporelles : je considère en effet que les paradigmes lexicaux et grammaticaux ne suffisent pas à avoir une bonne idée du fonctionnement de la langue, et qu'il faut justement partir de l'usage pour comparer les langues. Cela permettrait donc de compléter avec profit des études de typologie de surface, qui s'intéressent avant tout aux outils grammaticaux et aux inventaires lexicaux. C'est également ce type d'interrogation qui m'a amené à étudier des langues dont le traitement de l'espace est particulier – ou, du moins, différent de ce que l'on trouve le plus 66 souvent dans les langues indo-europénnes. C'est notoirement le cas de la langue des signes, comme en témoigne l'extrait suivant : An examination of signed language shows that its structural representation of space systematically differs from that in spoken language in the direction of what appear to be the structural characteristics of scene parsing in visual perception. Such differences include the following: Signed language can finer spatial distinctions with its inventory of more structural elements, more categories, and more elements per category. It represents many more of these distinctions in any particular expression. It also represents these distinctions independently in the expression, not bundled together into pre-packaged schemas. And its spatial representations are largely iconic with visible spatial characteristics. 4.1 Les relations spatiales statiques
Mes recherches m'ont permis de montrer que certaines relations spatiales sont codées linguistiquement de manière assez stable, avec une faible variation intralinguistique, d'autres non, avec une plus grande variabilité. Il y a une corrélation entre le degré de complexité morphologique et le nombre de contextes d'emploi : les prépositions simples sont plus polysémiques que les prépositions complexes. Mes premières interrogations sur l'espace dans la langue sont liées à mes recherches sur les prépositions, et partent du constat (suivant entre autres Vandeloise 1986) que le sens des prépositions spatiales n'est pas si spatial que cela : languages do not capture metric relationships in a simple way, a point first elaborated by Talmy (1983). (Landau et al. 2010 : 56) Je ne reviens pas outre mesure sur ce point, déjà traité dans la section § 3, mais je développe un point connexe et également intéressant, qui est celui des contextes d'utilisation de chaque préposition dans un système prépositionnel, d'un point de vue contrastif. J'ai ainsi étudié la correspondance entre prépositions et relations spatiales pour un article en collaboration avec Alexandru Mardale (Fagard & Mardale 2012 [VI : 857 sqq.]). Nous avons cherché à savoir, sur la base d'une étude sur corpus, quelles prépositions étaient couramment utilisées par différentes langues romanes pour une série de relations spatiales basiques (graphique 6 ci-dessous), dans une démarche inspirée par Levinson et al. (2003) : 67 Graphique 6 : Quelques relations spatiales (Fagard & Mardale 2012 [VI : 875]) 21 Pour cette étude, la difficulté principale était de distinguer les emplois purement spatiaux (49) des emplois non-spatiaux (50), avec la question épineuse du statut des emplois métaphoriques ou figés (51), que nous avons choisi d'
carter du corpus dans un premier temps : Clairement spatial (49) (portugais)
Enquanto conversavam, captavam detalhes um do outro; sob a mesa pequena, os joelhos se esbarravam ocasionalmente. « Tandis qu'ils discutaient, ils percevaient des détails l'un de l'autre ; sous la petite table, leurs genoux se touchaient de temps en temps » (CdP, Luiz Alfredo Garcia-Roza, O Silêncio da Chuva, 1996) Clairement non spatial (50) (portugais) Sempre pensei que teria de tomar esta opção, sob o risco de cair em situações desagradáveis. « J'ai toujours pensé que je finirais par devoir choisir cette option, au risque (litt. sous le risque) de tomber dans des situations désagréables. par million mots > 5000 > 1000 espagnol en sobre français sur italien su 22 portugais em sobre roumain pe Tableau 1 : Prépositions romanes dénotant la configuration spatiale (c) (ON) (Fagard & Mardale 2012 [VI : 884]) En revanche, pour la relation spatiale étiquetée BETWEEN, on trouve une variabilité intralinguistique
importante
, et
une
variabilité interlinguistique
limitée
: la
préposition
la plus
fré
quente
est issu du latin inter, pour toutes
les
langue
s
retenues
, et
seules
deux autres racines sont représentées avec une fréquence notable, l'une correspondant
au
latin medium « centre
», l'autre au
latin
sinus « creux » : Fréquence relative (par million de mots) > 500 > 100 < 50 < 10 espagnol entre dentro de por entre, por dentro (de) français entre parmi, au sein de italien tra, fra in mezzo a nel mezzo di portugais entre no meio de dentre roumain între printre în sânul, din sânul Tableau 2 : Prépositions romanes dénotant la configuration spatiale (h) (BETWEEN) (Fagard & Mardale 2012 [VI : 885]) Ces deux tableaux (1-2)
illustr
ent
bien
un
autre
résultat
important, à savoir que certaines relations spatiales
semble
nt
être
cod
ées linguisti
quement de manière assez stable (c'està-dire avec peu de variation intralinguistique), tandis que pour d'autres on observe une grande variabilité. Cette hypothèse semble confirmée par les résultats préliminaires d'une autre étude, menée dans le cadre du projet EoSS, et dont une tâche est centrée sur l'expression d'un certain nombre de relations spatiales statiques en occitan moderne.
23
Ces résultats permettent d'annoncer les remarques formulées plus loin sur la grammaticalisation
(
§
5) : il
semble
y avoir
une
corré
lation entre le degré de complexité morphologique et le nombre de contextes d'emploi, avec les pré
simples couvrant en moyenne un nombre d'emplois plus large que les prépositions complexes. Le graphique (7), ci-dessous, illustre bien ce point : dans les réponses au test de Bowerman & Pederson (1992), la plupart des prépositions complexes (24) ne sont utilisées que pour décrire un tout petit nombre relations spatiales (3 au maximum) ; inversement, plusieurs prépositions simples peuvent être utilisées dans un grand nombre de contextes différents (jusqu'à 36 pour a). 22 Le but de l'étude étant d'identifier les prépositions utilisées par défaut, nous avons exclu les constructions (simples ou complexes) trop peu fréquentes. C'est le cas par exemple de l'italien sopra, 20 fois moins fréquent environ que su. 12 Nombre de relations exprimées par des prépositions simples et complexes en occitan moderne (test de Bowerman & Pederson 1992) 10 8 6 PC 4 PS 2 0 1 2 3 4 5 6 7
8 9 13 22 27 36 Graphique 7 : Relations sémantiques et complexité morphologique (projet EoSS ; PC = prépositions complexes, PS = prépositions simples, en abscisses, le nombre de relations sémantiques ; en ordonnées, le nombre de prépositions concernées) La polysémie attendue de certaines prépositions simples apparaît clairement au vu des images décrites par la préposition a, par exemple : Graphique 8 : Relations spatiales désignées par la préposition a (projet EoSS) 70
Tandis que la tendance des prépositions complexes à présenter à la fois une grande variabilité morpho-syntaxique et une faible polysémie est bien illustrée par les exemples suivants, où l'on voit que chaque forme n'a été utilisée dans notre corpus que pour un type de relation spatiale : Graphique 9 : Relations spatiales désignées par quelques prépositions complexes (projet EoSS) Il faut noter, de plus, qu'un grand nombre d'emplois de a est commun à plusieurs locuteurs, comme en attestent les nombres souscrits (graphique 8), qui indiquent le nombre d'occurrences de la préposition pour chaque image : pour dix images différentes, au moins la moitié des locuteurs a utilisé la préposition a ; seules six images correspondent à un emploi apparemment idiosyncratique (avec un seul emploi de a). À l'inverse, on ne trouve qu'une seule occurrence de chacune des prépositions complexes illustrées ci-dessus. Le détail des occurrences montre qu'une analyse plus fine est nécessaire. Ainsi, pour a, on remarque dans les quelques exemples ci-dessous que si la configuration géométrique varie beaucoup, la relation fonctionnelle est assez stable (cf pendre/être pendu + PREP : 14 occurrences – 12
a, 1 sus, 1 per être/ø + PREP : 6 occurrences – 5
a, 1 sus
La variation est donc relativement limitée : [(la|une) veste (est|est pendue|pend|ø) (à|sur|par) le porte-manteau], comme l'illustrent les exemples suivants : (57) la vèsta es penjada al pòrta-mantèl « la veste est pendue au porte-manteau » (occitan) (58) una vèsta al pòrta-mantèl « une veste au porte-manteau » (exemples 57-58 : données recueillies dans le cadre du projet EoSS) Une piste intéressante pour poursuivre ces recherches et les approfondir serait d'une part la comparaison plus systématique des données de corpus (en suivant la méthodologie de Stosic et al. 2015 [V : 631 sqq.], ou de Fagard & Mardale 2012 [VI : 857 sqq.]) et des données élicitées, d'autre part l'exploitation des données récoltées et la comparaison avec les données obtenues pour d'autres langues, à commencer par les langues romanes, qui sont bien représentées dans le projet EoSS (portugais, espagnol, galicien, français, romanche, italien, frioulan, roumain). L'équipe de coordinateurs du projet EoSS a répondu de manière enthousiaste à ma proposition d'organiser avec Anetta Kopecka (Université Lyon 2, DDL) un colloque sur les données romanes du projet, qui devrait se tenir fin 2016 si je parviens à rassembler des fonds : cette piste de travail est donc prometteuse. 4.2 L'expression du déplacement
Mes recherches sur le déplacement m'ont permis de revoir la typologie de l'expression du déplacement, et m'ont amené à considérer qu'il faut revoir radicalement la typologie de Talmy (1991, 2000 : langues à satellite vs à cadre verbal) : les langues proches génétiquement ne sont pas nécessairement proches structurellement (Fagard et al., sous presse [V : 613 sqq.]), et il faut de plus prendre en compte la différence entre structure linguistique et usage 72 de la langue (Fagard et al., soumis ; voir également Schøsler 2008 sur l'expression du mouvement dans les langues romanes) ; inversement, l'éloignement génétique n'implique pas toujours des différences structurelles fortes. La typologie doit être plus fine. Ma réflexion sur le déplacement a d'abord pris la forme d'une participation à un projet de la fédération TUL, le projet Trajectoire, dont j'ai été membre dès sa fondation – et même avant, puisque j'étais présent à la journée d'étude (en 2003) où il s'est, pour la première fois, discuté du dépôt du projet. J'ai ainsi participé à l'élaboration d'un outil d'élicitation, le DVD Trajectoire, qui rassemble 76 scènes d'une dizaine de secondes environ. Il y a deux scènes d'entraînement et un tiers de distracteurs, où l'on peut voir par exemple un jeune homme qui dort, qui mange une banane, une jeune femme lui versant à boire, etc. Les deux tiers restant sont les scènes test, qui ont été calibrées pour voir comment des locuteurs de langues éloignées typologiquement décrivent la trajectoire. On peut donc y voir une personne qui sort d'une caverne, qui entre dans une caverne, qui sur le sable, qui monte quelques marches, etc. Un certain nombre d'éléments varient : (a) le point de vue. On voit la personne venir vers la caméra, s'éloigner de la caméra ou suivre une trajectoire perpendiculaire à la caméra. (b) le type de mouvement. On voit la personne courir, marcher plus ou moins vite, sauter. (c) la personne filmée. On voit diverses personnes se mouvoir : quelques enfants, quelques jeunes hommes et femmes. (d) le nombre de personnes filmées. La plupart des scènes ne montrent qu'une personne, mais dans quelques cas il y en a de deux à cinq. (e) le(s) point(s) saillant(s) de la trajectoire. On peut schématiser une trajectoire comme un mouvement en trois temps : (1) début, (2) milieu, (3) fin (Grinevald 2011). 73 langue participants lieu principal enregistrement transcription codage allemand 19 Tübingen BF & LS BF BF polonais 15 Cracovie AK & BF AK & BF BF thaï 20 Lund JB JZ BF, JB & JZ suédois 20 Lund JB JB BF, JB & JZ serbe 12 Belgrade ST ST BF, ST & DS français 12 Paris, Louvain-la-Neuve, Montréal LS & BF LS & BF BF piémontais 12 Foglizzo & Turin MC & BF MC & BF MC & BF italien 14 Rome EO & EC BF BF portugais 10 Lisbonne BF BF BF roumain 10 Bucarest AM AM BF
Pour ces dix langues, les données me semblent suffisantes pour bâtir des hypothèses. J'ai de plus récolté des données limitées pour quelques autres langues : hongrois (6 locuteurs), catalan (3 locuteurs), galicien (2 locuteurs), occitan (1 locuteur), slovaque (1 locuteur) et espagnol (1 locuteur). Ces données sont précieuses, malgré leur faiblesse quantitative, car elles peuvent servir de point de départ pour identifier les langues les plus intéressantes pour tester certaines hypothèses ; en revanche, il est clair qu'elles ne suffisent pas pour obtenir des résultats publiables. 4.2.2 Expérimentation « Trajectoire » : Analyse des données
Si la récolte des données demande du temps et de l'énergie, l'analyse des données pose, elle, une série de problèmes. Le plus important est que la complexité des éléments à tester était sans doute trop grande. Ainsi, les efforts du groupe pour mettre au point un système de codage valable pour toutes les langues représentées (une quinzaine à ce stade) ont abouti à la rédaction d'un manuel de codage très détaillé, et qui n'a malheureusement pas pu être mis à profit. On peut se demander s'il n'aurait pas mieux valu se contenter d'un codage plus simple, ou du moins incrémental, ou d'un nombre de scènes moins important, avec une seule question simple à la clef, par exemple : « est-ce que le point de vue a une importance? » ou encore « est-ce que le but (point final de la trajectoire) est plus important que la source (point initial)? ». Ceci dit, j'ai la conviction que les données ainsi récoltées sont de qualité, et permettent de formuler des hypothèses intéressantes, à poursuivre éventuellement à l'aide d'autres outils d'élicitation et à contrôler à l'aide de données de corpus. J'ai pu présenter différents résultats obtenus à l'aide de cet outil d'élicitation (Fagard, Kopecka & Sarda 2009, Fagard et al. 2013, 2014, Kopecka & Fagard 2014, Kopecka et al. 2015). Je détaille dans (Fagard et al., sous presse [V : 613 sqq.]) une partie de ces résultats : nous avons cherché, à partir des données récoltées en français, piémontais, allemand, suédois, polonais et thai, à voir s'il fallait revoir la typologie de Talmy (1991, 2000), opposant les langues 'à cadre verbal' (verb-framed), qui expriment typiquement la trajectoire (en gras dans l'exemple ci-dessous) 74 dans le verbe, aux langues 'à satellite' (satellite-framed), qui expriment typiquement la trajectoire dans une particule et peuvent par conséquence exprimer la manière du mouvement dans le verbe principal : (59) Il est entré dans la maison (en courant) (exemple construit) (français) (60) (anglais) He ran into the house « il est arrivé en courant dans la maison [depuis ailleurs, avec franchissement de frontière] » (exemple construit) Notre question était précisément de savoir si et surtout comment il convenait de revoir cette typologie. Plusieurs possibilités existent en effet. 75
Graphique 10 : Fréquence de l'expression de la manière dans le verbe (données Trajectoire, six langues : pourcentage d'énoncés avec expression de la manière, ou sans (« autre »), avec indication de la variation individuelle sous forme de barres d'erreur) Une autre possibilité encore serait de substituer aux types de langues les types de construction, chaque langue étant constituée d'un ensemble complexe de structures de l'un ou de l'autre type (Kopecka 2006, Beavers, Levin & Tham 2010, Croft et al. 2010). C'est cette dernière possibilité que je suis en train d'
explorer
avec mes collègues (Fagard et al.,
soumis). Les résultats de ces recherches montrent que la différence attendue de fréquence d'expression de la manière illustrée par le graphique (10) se retrouve surtout dans les scènes où la manière est peu marquée (c'est-à-dire où la figure marche, voir graphique 11), et dans les scènes où il
y
a franchissement de frontière (voir
graphique
12
) : Graphique 11 : Fréquence de l'expression de la manière dans le verbe (données Trajectoire, six langues : pourcentage d'énoncés avec manière dans les descriptions de vidéos avec et sans franchissement de frontière (f.f.), avec indication de la variation individuelle sous forme de barres d'erreur) 76
Graphique 12 : Fréquence de l'expression de la manière dans le verbe (données Trajectoire, six langues : pourcentage d'énoncés avec manière dans les vidéos avec manière de mouvement marqué en gris foncé, et même chose pour les vidéos avec manière de mouvement non marqué en gris clair, avec indication de la variation individuelle sous forme de barres d'erreur) L'importance du franchissement de frontière a déjà été remarquée, et constitue ce qui a
appelé "boundary-crossing constraint" (cf. Aske 1989, Slobin & Hoiting 1994) : dans les langues à cadre verbal, la description verbale de scènes contenant un franchissement de frontière se fait typiquement à l'aide de verbes de trajectoire (entrer, sortir, passer), au détriment des verbes de manière. Il faut noter cependant que lorsque ces deux éléments sont combinés (franchissement de frontière + manière marquée), la manière peut tout de même être exprimée. Les phrases suivantes, en piémontais, illustrent bien ce phénomène : on voit qu'une scène comprenant un mouvement avec franchissement de frontière est décrite avec ou sans verbe de manière selon que (respectivement) ce mouvement est marqué ou non : (62) na fía c a intra 'IND.F fille REL 3SG entrer « une fille qui entre dans une grotte » (Traj22_pm_08) (63) an cit c a 'IND.M garçon REL 3SG « un garçon qui court dans l'eau » (Traj59_pm_09) (piémontais) nt dans cur courir.PRS.3SG na IND.F crota grotte' andrinta dans a à l' DET (piémontais) eva eau' À l'inverse, dans les langues à satellites, la manière est typiquement exprimée même lorsqu'elle n'est pas marquée dans la scène, comme l'illustrent bien les deux exemples suivants, en polonais et suédois : (64) mężczyzna wyszedł 'homme.NOM hors.demarcher.3SG.M.PST « L'homme est sorti des buissons en marchant » (Traj55_pl_01) (polonais) z hors.de krzaków buisson.GEN.PL' 77 (65) en kvinna in går 'IND femme marcher.3SG.IND.PRS dans « Une femme entre dans une grotte en marchant » (Traj54_sw_13) (suédois) i dans en IND grotta grotte' Bien que tout ne soit pas encore codé et analysé, les premiers résultats de ces recherches sont donc encourageants, et permettent de pointer les limites de la typologie de Talmy. Il apparaît en effet assez clairement, au vu de ces résultats, qu'il est difficile de classer les langues avec pour seul critère le lieu d'expression de la trajectoire (verbe ou satellite) : ce classement ne fonctionne qu'imparfaitement pour prédire la façon dont les s retenues dans cette étude expriment la manière de mouvement, et très mal pour prédire l'expression de la trajectoire et de la deixis, pourtant des éléments fondamentaux dans la description du mouvement. De plus, nos résultats suggèrent que la proximité génétique n'est pas à elle seule un bon prédicteur de la proximité de la production dans l'expression de la trajectoire. Pour la deixis, la fréquence d'expression est similaire en allemand et en thaï, en français et en suédois, enfin en polonais et en piémontais ; il y a donc à la fois des similarités indépendantes de la famille linguistique (polonais / piémontais, français / suédois, allemand / thaï) et des écarts au sein des familles (français-piémontais, allemand-suédois). De même, pour l'expression de la manière, il y a des affinités assez fortes indépendamment des familles de langues, notamment entre allemand, polonais et thaï. 4.2.3 Etude de l'expression du mouvement : approches diachroniques
Etant donné que le type du latin dans la typologie de Talmy est l'opposé du type roman, on ne peut que s'interroger sur ce qui a causé le glissement de l'un à l'autre : pourquoi et comment passe-t-on d'une langue à satellites à une langue à cadre verbal, ou inversement? J'ai abordé cette question dans le cadre d'une série d'études menées avec Claudio Iacobini (Iacobini & Fagard 2011 [V : 675 sqq.], soumis). Ces études, ainsi que les résultats préliminaires d'une comparaison entre différentes langues romanes pour des étapes anciennes, semblent indiquer que la différenciation n'est pas récente (voir aussi, sur ce thème, Stolova 2015). Ainsi, une étude que j'ai menée sur corpus en français (base BFM), italien (base OVI), portugais (base CdP) et espagnol (base CORDE) semble indiquer des différences assez marquées. Afin de déterminer l'importance du critère de franchissement de frontière, j'y ai cherché toutes les cooccurrences des verbes aller, courir, entrer avec les prépositions équivalentes à en et dans, ainsi que toutes les occurrences de constructions du type dans la salle, dans le château. J'ai ainsi codé 300 occurrences par langue environ, et les occurrences exploitables indiquent bien une différence entre les langues (tableau 3) : 78
Type de verbe Langue Type de scène verbe neutre ou verbe de trajectoire verbe de manière autres verbes [+FF] 49 1 12 espagnol français italien portugais Total 62 [-FF] 0 1 2 3 [+FF] 358 12 2 372 [-FF] 6 79 1 86 [+FF] 1 61 4 66 [-FF] 0 5 1 6 [+FF] 85 17 33 135 [-FF] 0 1 4 5 499 177 59 735 Total
Tableau 3 : Types
de
verbe
s de dé
placement dans
un
corp
us
médi
é
val (espagnol, français, italien, portug
ais
)
25
Il s'agit de données trop limitées pour en tirer des conclusions définitives, d'autant qu'il faudrait disposer de corpus strictement comparables pour aller plus loin. Elles permettent au moins de postuler quelques hypothèses, à partir de deux faits marquants : il n'y a qu'en français qu'on trouve une opposition nette en fonction du type de scène, avec des verbes de manière surtout dans les scènes sans franchissement de frontière ; il n'y a qu'en italien qu'on trouve fréquemment des verbes de manière dans les scènes avec franchissement de frontière (graphique 13). 1. en français médiéval, la manière de mouvement est exprimée quand il n'y a pas franchissement de frontière (cf. Aske 1989, Slobin & Hoiting 1994, Fagard et al. sous presse [V : 613 sqq.]) ; s'il y a franchissement de frontière, l'expression de la manière est marquée, et donne lieu à l'utilisation de constructions spécifiques (courir jusque + SP ou verbe de mouvement + (en) corant) 2. en italien médiéval, probablement en lien avec la présence fréquente d'adverbes de trajectoire (Iacobini & Masini 2006), la manière de mouvement est exprimée fréquemment, même quand il y a franchissement de frontière 3. en espagnol et en portugais médiévaux, les adverbes de trajectoire sont présents mais pas suffisamment fréquents pour inhiber l'expression de la trajectoire dans le verbe Il ne s'agit là que d'hypothèses, qui demandent à être (in)validées. Elles reposent sur les observations que je décris brièvement dans ce qui suit. En français médiéval, on trouve principalement des exemples avec franchissement de frontière et sans manière : dans ce type de construction, aussi bien le verbe que les syntagmes prépositionnels expriment la trajectoire, comme dans les deux exemples ci-dessous. (66) (moyen français) en ceste presente sepmaine, en l'ostel du chauderonnier demourant soubz les pilliers, ès halles, ouquel il avoit esté logié, il entra par une luquerne en une chambre dudit hostel, et illec print et embla une courte houppelande de drap pers « [Il reconnut et confessa, outre ce que nous avons rapporté ci-dessus, que] cette semaine, en l'hôtel du chaudronnier qui demeure sous les pilliers, aux halles, où il avait été logé, il est entré par une lucarne dans une chambre de cet hôtel, et y a pris et dérobé une courte houppelande de drap bleu » (BFM, Registre criminel du Châtelet, t. 2, p. 217, 1389) (67) (moyen français) () quant ilz se partirent, ilz cuidierent entrer en l'ostel d'une poissonniere par les fenestres de son hostel, qui estoient ouvertes, pour la cuidier desrober « Quand ils se séparèrent, ils pensèrent entrer dans le logis d'une poissonnière par les fenêtres de son logis, qui étaient ouvertes, pour la voler » (BFM, Registre criminel du Châtelet, t. 1, p. 98, 1389) La trajectoire peut également être exprimée par un adverbe, ce n'entraîne pas l'expression de la manière dans le verbe (cf. les exemples ci-dessous), de manière assez étonnante (et contraire aux hypothèses de Talmy 1985, 2000) : (68) il entra arriere en l'yaue. « Il entra dans l'eau en arrière » (BFM, Gaston Phébus, Livre de chasse, p. 208, ch. 45, 1387) (moyen français) (69) (moyen français) Le fel cuvert esploita tant qu'il vint en la mer et entra ens, et les damoiselles avecques lui « Le vil traître fit tant qu'il arriva à la mer et y entra [litt. « entra dedans »], et les demoiselles avec lui » (BFM, Bérinus, t. 1, p. 324, 1350) Alors même que l'ancien français présente certaines caractéristiques des langues à satellite (Kopecka 2009, Burnett & Tremblay 2009, Troberg 2011), et que l'expression du mouvement 80 sous la forme [Verbe de manière + Adverbe de trajectoire] est possible, ce type de construction n'est pas très fréquent. Cependant, la manière peut être exprimée, et même dans le verbe principal. C'est le cas lorsque la trajectoire est exprimée par un syntagme introduit par jusque (70), en particulier lorsqu'il y a distribution des informations spatiales sur plusieurs propositions (71) : (70) (moyen français) () toutez cez chosez faittez, ainsy que je vous dis, le conte d'Urgel lez siens mis en bonne ordonnance, coururent de grant radeur jusquez en l'ost et sans espargnier et de prime fache se ferirent ez Castelains, desquelz ilz firent grant occision pour ce que lez pluiseurs estoient nudz, c'est a dire sans armeurez et pris en desarroy « le comte d'Urgel mit les siens en bon ordre, et ils se précipitèrent dans la mêlée » (BFM, Le roman du comte d'Artois, p. 40, 1453) (71) (moyen français) Et Roland ne cessa de courir, jusques il fut dedens la tour. Et quant les barons furent leans, ilz fermerent les portes bien seurement, sans avoir paour que on leur fist empeschement ne viollence par lors nullement. « Et Roland ne cessa de courir jusqu'à ce qu'il soit dans la tour. » (DMF, Jehan Bagnyon, L'histoire de Charlemagne, p. 122, 2nd livre, 2nde partie, ch. XVI, 1465) Par ailleurs, la manière peut être exprimée par un gérondif, donc comme un élément secondaire, le verbe principal exprimant la trajectoire (au sens large) : (72) Je m'en voi a l'ostel courant, Pour mon fil faire avoir baptesme. « Je m'en vais en courant à mon logis, pour faire baptiser mon fils » (DMF, Miracle de l'enfant donné au diable, p. 14-15, 1339) (moyen français) En italien médiéval, les constructions du type andare + in sont très nettement privilégiées. L'italien n'exprime donc très souvent le franchissement de frontière que dans un syntagme prépositionnel ou adverbial (73-74), plutôt que dans le verbe – et dans ce cas, c'est que l'accent est mis sur le franchissement de frontière (75) : (73) (italien médiéval) Ma ddappoi che T. e madonna Isotta fuorono ala magione dela savia damigiella, e T. « Et quand [le bébé] naît, son premier cri est de douleur, parce qu'il sort d'un lieu chaud et arrive dans un lieu contraire [c'est-à-dire froid]. » (OVI, Fr. da Barberino, Del reggimento e costumi di donna, p. 372, 1318-20) En espagnol médiéval, les constructions du type entrar + en sont privilégiées – la trajectoire étant donc le plus souvent exprimée simultanément dans le verbe et un syntagme adverbial (76) ou prépositionnel (77) ; les énoncés contenant un verbe de manière et un syntagme prépositionnel indiquant la trajectoire sont bien plus rares (78), et on trouve plutôt pour indiquer la manière des constructions complexes (79) : (76) Bien seas venido. entra dentro et yantaras. « Sois le bienvenu. Entre et tu mangeras. » (Corde, Esopete ystoriado, fol. 134v, 1482) (espagnol médiéval) (77) (espagnol médiéval) () atándolo debaxo de un portal, entró en la casa y vio un hombre fincado de inojos rezando « Ayant attaché [son cheval] sous un portique, il entra dans la maison et vit un homme qui se tenait à genoux et priait » (Corde, Rodríguez de Montalvo, Garci Amadís de Gaula, p. 1105, 1482-1492) (78) le dexo salir dende mandando le que anduviesse dentro en casa « il le laissa sortir de là, ordonnant-lui de se rendre dans la maison » (Corde, Esopete ystoriado, fol. 130v, 1482) (espagnol médiéval) (79) quando él lo supo, tyróse más que de paso dentro de las montañas. « Quand il le sut, il se lança dans les montagnes à toute vitesse » (Corde, La corónica de Adramón, p. 574, 1492) (espagnol médiéval) Dans le détail, on voit qu'en espagnol médiéval, notre corpus, le franchissement de frontière est le plus souvent exprimé par entrer, venir, revenir en/dans ; en italien médiéval, plutôt par aller, courir en/dans et très peu par entrer en/dans. En portugais médiéval, enfin, on trouve les deux types de construction (80-82) ; les verbes de manière semblent être plus fréquents qu'en espagnol et en français, mais moins qu'en italien : (80) per que os imiigos possam entrar a mall fazer ao castello. « pour que les enemis puissent entrer dans le château pour méfaire » (CdP, Castelo Perigoso, 15ème siècle) (portugais médiéval) (81) (portugais médiéval) o viram sayr, foron se logo rriigos e dereytos aa porta e entraram no castello e lançarom logo fora a molher do alcayde e os que com ella estavam « ils le virent sortir, allèrent droit à la porte et entrèrent dans le château, puis expulsèrent de là la femme du gouverneur et ceux qui étaient avec elle » (CdP, Estoria de Dom Nuno Alvares Pereyra, 15ème siècle) (portugais médiéval) (82) el rey d'Arryona vyo que aquelles cavaleiros se poseron a tal perigoo por acorrer ao castello e que erã ja dentro 82 « Le roi d'Arragone vit que ces chevaliers s'exposaient à de tels riques pour accourir au château et qu'ils étaient déjà entrés » (CdP, Crónica Geral de Espanha, 14ème siècle)
4.2.3.1 Limites et pistes pour des recherches futures
Cependant, comme je l'indiquais plus haut, il s'agit ici de pistes de réflexion plutôt que de résultats probants. En effet, il reste un certain nombre de problèmes méthodologiques et théoriques à régler avant d'étendre le corpus et de pouvoir vérifier mes hypothèses, notamment (a) le codage de la manière ; (b) le traitement des emplois métaphoriques. Le point le plus ardu est bien celui du statut de la MANIERE, que j'illustre ci-dessous à l'aide des emplois de l'ancien français courir. Ce dernier est en effet souvent employé avec un sens assez éloigné de la MANIERE ; ainsi lorsqu'il peut être glosé par « se dépêcher », comme dans 'exemple ci-dessous : (83) (moyen français) Chiers sires, il vous fault ces bonnes gens conforter, car se vous perdés la forte ville de Calais, ce vous sera uns trop grans prejudisses et a vostre roiaulme, et averont les Englois trop biel a venir et a armer a Calais et courir en France et la retraire et retourner en lor pais. « Mes seigneurs, vous devez réconforter ces bonnes gens, car si vous perdez la ville-forte de Calais, cela sera un trop grand préjudice pour vous et votre royaume, et il sera facile pour les anglais de venir armer Calais et courir en France puis faire demi-tour et retourner dans leur pays » (BFM, Froissart, Chroniques, p. - , ) De même lorsqu'il désigne le mouvement d'un non-humain, qu'il s'agisse d'un animal ou, pire (dans le sens où l'on s'éloigne de la « course » prototypique d'un être humain), d'un nonanimé : (84) (moyen français) Je ne le retins pas bien ; ung jour qui passa, si m'en print mal. Car, en courant [en] une valée après le lievre et mes chiens, mon cheval se rompit le col, et je fuz tresbien blecié. Et en memoire de ce est la pendue la peau du cheval que alors je perdy. « Je ne l'ai pas bien retenu [le deuxième enseignement de mon père, à savoir de ne pas laisser courir son cheval] et, un jour, mal m'en a pris. Car en courant dans une vallée après le lièvre et mes chiens, mon cheval s'est cassé le cou, et j'ai été gravement blessé. C'est en souvenir de cette aventure que j'ai pendu la peau du cheval que j'y ai perdu » (BFM, Les cent nouvelles nouvelles, p. 335-336, 1456) (85) (moyen français) Dieu voulut ainsi disposer des choses que ceste nuyct sourdit une grande tormente, et telle qu'il faillit que l'armée dudict duc de Bourgongne fuist, et coururent les ungs des navires en Escosse, les autres en Hollande, et en peu d'heures après se trouva le vent bon pour ledict conte, lequel passa sans peril en Angleterre. « Dieu a voulu ainsi disposer les choses – cette nuit-là une grande tempête se déchaîna, faisant fuir l'armée du duc de Bourgnonne : les navires coururent les uns en Ecosse, les autres en Hollande, et en quelques heures après cela le vent fut able au comte, qui passa sans péril en Angleterre » (BFM, Philippe de Commynes, Mémoires, t. 1, p. 199, 1489) Dans un premier temps, j'ai considéré que les emplois métaphoriques (par exemple cidessous), trop éloignés de l'expression du mouvement réel, devaient être traités à part. ( ) Una donna mi passa per la mente, ch'a riposar si va dentro nel core; ma trova lui di sì poco valore, che de la sua vertù non è possente; sì che si parte disdegnosamente e làsciavi uno spirito d'amore Une femme me passe par la tête, et va reposer dans mon coeur, mais le trouve de si peu de valeur qu'il n'est pas digne de sa vertu, et elle repart donc dédaigneusement et y laisse un soupir d'amour (OVI, Cino da Pistoia, Rime, p. 566, 1336) Un dernier point à retenir est celui de la répartition des informations au sein de l'énoncé (Fagard et al., soumis). C'est d'ailleurs là un angle d'attaque intéressant pour revoir la typologie de Talmy, en la complétant par une analyse constructionnelle, comme annoncé plus haut. L'exemple suivant est une bonne illustration, montrant qu'une langue à cadre verbal peut exprimer la manière du mouvement mais, dans ce cas, les informations relatives à la manière et à la trajectoire sont typiquement réparties sur deux propositions : (87) (moyen français) Et chevauça li rois d'Engleterre et s'en vint au siege devant Vennes, et la se tint. « Le roi d'Angleterre chevaucha et vint au siège devant Vennes, et y resta. » (BFM, Froissart, Chroniques, p. 588, 1400) J'ai testé cette hypothèse en comparant les données Trajectoire en français et suédois, avec des résultats préliminaires encourageants (communication, Fagard et al. 2013b) qui permettent d'aller un peu plus loin que la simple vérification de la présence ou absence des traits sémantiques MANIERE et TRAJECTOIRE selon le type de langue (tableau 4).
Traits sémantiques présents dans
l
'énoncé français suédois Total
TRAJECTOIRE
& MANIERE
(cop
s dans une même proposition) 333 749 1082 TRAJECTOIRE & MANIERE (distribués sur plusieurs propositions) 75 37 112 TRAJECTOIRE MANIERE seule seule 427 81 508 45 55 100 Total 880 922 1802
Tableau 4 : Répartition
de
l'information
dans les données trajectoire – français et suédois (communication, Fagard
et al.
| 31,551
|
02/hal.archives-ouvertes.fr-hal-00007480-document.txt_1
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 3,388
| 5,864
|
Estimations du noyau de Green, propriété de valeur moyenne et géométrie des boules hyperboliques Cyrille Domenichino, Philippe Jaming
des boules hyperboliques Cyrille DOMENICHINO a, Philippe JAMING b a b LAPT (UMR 6632), Université de Provence, 39, rue Joliot-Curie, 13453 Marseille cedex 13, France Mapmo (UMR 6628), faculté des sciences, Université d'Orléans, B.P. 6759, 45067 Orléans cedex 2, France Courriel : [email protected] ; [email protected] (Reçu le 6 avril 2001, accepté le 23 avril 2001) Résumé.
Dans cette note, nous obtenons des estimés du noyau de Green dans les boules hyperboliques réelles, complexes et quaternioniques. Celles-ci nous permettent ensuite de montrer que, dans ces boules, les seuls domaines de classe C1+α, α > 0 pour lesquels l'égalité de la moyenne surfacique est vraie pour toutes les fonctions harmoniques sont les boules géodésiques.
c 2001 Académie des sciences/Éditions scientifiques et médicales Elsevier SAS Green kernel estimates, mean value properties and geometry of classical rank one balls Abstract. In this Note, we obtain estimates of the Green kernel of real, complex and quaternionic hyperbolic balls. We then apply these to show that in such balls the only domains of class C1+α, α > 0 for which the spherical mean value identity holds for every harmonic function are the geodesic balls. In this Note, we denote by F = R, C or H and n > 2 an integer (n > 3 if F = R). Let Bn be the Euclidean unit ball of Fn. Define G as F = R : G = SO0 (n, 1), F = C : G = SU (n, 1), F = H : G = Sp(n, 1); and let G = KAN be its Iwasawa decomposition. It is well known that Bn can be identified with G/K, in particular G acts on Bn and Bn can be endowed with a G-invariant metric. We will refer to this metric as the hyperbolic metric on Bn. Further, let d = dimR F and define m1 = d(n − 1) and m2 = d − 1 the multiplicities of the roots of G. If z ∈ Bn, there exists g ∈p G such that g.z = 0 and g.0 = z. For ζ ∈ Bn we will then write φz (ζ) =
g
.
ζ z
−
Pz ζ −
1
− kzk2
Qz ζ hζ
,
zi
with Pz (
ζ
) =
z
and
Qz
(
ζ)
=
ζ − Pz (ζ
). so that
φz (ζ) = 1 − hζ, zi hz, zi 1 C. Domenichino, P. Jaming Denote by DF the Laplace operator on Bn that is invariant under G, by dμ the G-invariant measure on Bn. Let Ω be a relatively compact domain in Bn of class C1+α such that ∂Ω = ∂Ω. Denote by dσg the contraction of dμ with regard to the outward normal vector to ∂Ω with respect to the hyperbolic metric. m1 Z 1 (1 − t) 2 +m2 −1 dt. Our first The Green function Γ for DF is then given by Γ(ζ, z) = −cn 1+m1 +m2 2 kφz (ζ)k2 t aim here is to give estimates of this kernel. We obtain the following: Proposition 2.2. For every compact set K of Bn, there exists a constant CK such that, for all z ∈ K, ζ ∈ ∂Ω and for i = 1,., n and ∂Γ CK ∂Γ CK (z, ζ) + (z, ζ) 6 = m +m −1 nd−2 1 2 ∂zi ∂ζi kz − ζk kz − ζk (2.3) ∂Γ CK CK (z, ζ) 6 m1 +m2 = nd−1 ∂zi kz − ζk kz − ζk (2.4) R From this, we deduce the behaviour of the single-layer potential of ∂Ω, u∂Ω (z) = ∂Ω Γ(ζ, z)dσg (ζ). We show that u∂Ω is continuous on Bn and : ∂u∂Ω ∂Ω Proposition 2.3. For every z0 ∈ ∂Ω, ∂u ∂η + (z0 ) − ∂η − (z0 ) = 1, where η is the outward normal vector to Ω with respect to the Bergman metric and + (resp. −) indicates the limit from the exterior (resp. interior). R Sketch of proof. Define the double-layer potential v∂Ω of ∂Ω by v∂Ω (z) = ∂Ω gradζ Γ(ζ, z), ηζ dσ g (ζ) and we show that v∂Ω (z) = 0 if z ∈ Ω+, the exterior of Ω and v∂Ω (z) = 1 if z ∈ Ω. Then, for z0 ∈ ∂Ω, z = z0 + tηz0, z 0 = z0 − τ ηz0, t, τ > 0 Z v∂Ω (z) − v∂Ω (z 0 ) = hgradz Γ(ζ, z), ηz0 i − hgradz0 Γ(z 0, ζ), ηz0 i dσg (ζ). ∂Ω By suitably cutting this integral and using the estimates (2.3)-(2.4) as well as the regularity of the boundary, we see that v∂Ω (z) − v∂Ω (z 0 ) → 1 as t, τ → 0. Next, we will say that a function f on Bn is DF -harmonic if DF f = 0. It is then well known that if Br is an Euclidean ball centered in 0 of radius r, Sr = ∂Br and z ∈ Bn, then Z 1 f (z) = f (ζ)dσg (ζ). (0.1) σ φz (Sr ) φz (Sr ) The estimates above will allow us to prove the following converse of the mean value equality : Theorem 3.1. Let Ω be a relatively compact domain in Bn, of class C1+α, α > 0 such that ∂Ω = Z 1 ∂Ω. Assume z ∈ Ω is such that f (z) = f (ζ)dσg (ζ) for every DF -harmonic function in a σ(∂Ω) ∂Ω neighbourhood of Ω. Then Ω is a hyperbolic ball centered at z, that is Ω = φz (Br ) for some r, 0 < r < 1. Proof. The proof is adapted from that of Shahgholian [2] in the Euclidean case and follows closely the complex case from [1]. It is enough to prove the theorem for a = 0. We will apply (0.1) to the functions f = Γ(z,.) with z ∈ / Ω. As in [2], we will consider the Euclidean balls centered at 0, B1, B2, respectively the smallest ball containing Ω and the biggest ball contained in Ω. We will show that ∂B1 = ∂B2 = ∂Ω. By continuity of u∂Ω and compacity of ∂Ω, u∂Ω has its minimum and its maximum on ∂Ω in points z1 and z2. The hypothesis of the theorem shows that u∂Ω (z1 ) > u∂Ω (z2 ) if and only if Γ(z1, 0) > Γ(z2, 0) which is equivalent to kz1 k > kz2 k. In particular z1 ∈ ∂Ω ∩ B1 and z2 ∈ ∂Ω ∩ B2. Let us now show that kz1 k 6 kz2 k. As u∂Ω is DF -harmonic on Ω and continuous on Ω, u∂Ω satisfies the maximum principle. Therefore the supremum of u on Ω is is atteint on ∂Ω thus in z1. Similarly, the infimum of u on Ω is attained in 2 Estimations du Noyau de Green sur les boules hyperboliques z2. (1−kz1 k) 2 +m2 kz1 km1 +m2 (1−kz2 k) 2 +m2 kz2 km1 +m2 >, that is kz1 k 6 kz2 k. 2
Le but de cette Note est d'établir des estimations du noyau de Green des boules hyperboliques réelles, complexes et quaternioniques sur des domaines relativement compacts a bord de classe C1+α. Ces estimations nous permettent d'obtenir des informations sur la croissance des potentiels simple et double couche de ces domaines. Ces résultats nous servent ensuite à démontrer que les boules géodésiques des boules hyperboliques réelles, complexes ou quaternioniques sont caractérisées par la propriété de la moyenne pour les fonctions harmoniques sur ces boules. De tels résultats ont déjà été obtenus dans le cas euclidien par H. Shahgholian [2] et dans le cas hyperbolique complexe par le premier auteur [1]. Nous verrons ici comment ces résultats s'étendent de façon unifiée aux cas hyperboliques réels et quaternioniques.
1.2. Les boules hyperboliques
Nous désignerons par F = R,√ C ou H le corps des réels, complexes ou quaternions, par x 7→ x l'involution standard sur F, par |x| = xx la norme euclidienne sur F et enfin par d = dimR F. Soit un entier, n > 3 si F = R et n > 2 si F = C ou H. Pour x = (x1,., xn+1 ) ∈ Fn+1, définissons la forme quadra2 2 2 tique Q(x) = |x1 | +. + |xn | − |xn+1 |. Alors, la composante connexe de l'identité G du groupe des applications F-linéaires qui préservent Q et de déterminant 1 (sauf si F = H) est donnée par : si F = R, G = SO0 (n, 1), si F = C, G = SU (n, 1) et si F = H, G = Sp(n, 1). Soit G = KAN la décomposition d'Iwasawa de G et soit M le centralisateur de A dans K. Nous considérons ici les espaces hyperboliques G/K, et plus précisément une réalisation bornée. Ainsi, 2 pour x = (x1,., xn ) et y = (y1,., yn ) dans Fn, posons hx, yi = x1 y1 +. + xn yn et kxk = 2 hx, xi. La boule unité Bn = {x ∈ Fn : kxk < 1} et son bord Snd−1 (la sphère unité dans Fn ) sont respectivement identifiés avec G/K et K/M. Avec cette identification, G agit transitivement sur Bn et −1 −1 sur Snd−1 par g.(x1,., xn ) = (y1 yn+1,., yn yn+1 ) où (y1,., yn, yn+1 ) = g(x1,., xn, 1). Les boules Bn avec cette action de G sont les espaces classiques de rang 1 de type non-compact (les boules hyperboliques réelles, complexes ou quaternioniques selon que F = R, C ou H). Enfin, pour z ∈ Bn, hζ,zi z la projection sur Fz et Qz = I − Pz. Définissons écrivons Pz (ζ) = hz,zi p z − Pz (ζ) − 1 − kzk2 Qz (ζ) φz (ζ) =. 1 − hζ, zi Alors φz (ζ) = g.ζ pour le g ∈ G tel que g.0 = z, g.z = 0. (1.2
) 3 C
.
Domenichino,
P.
Jaming Soit κ la racine positive simple de (G, A) et m1 = d(n − 1), m2 = d − 1 les multiplicités de κ et 2κ respectivement. Soit ρ = m21 + m2, c'est-à-dire ρ = n−1 2, n, 2n + 1 selon que F = R, C ou H. La mesure dx de Lebesgue sur Bn sera notée dx et la mesure G-invariante sur Bn est alors dμ(x) = 2. (1 −
|
x| )ρ Soit DF l'opérateur de Laplace-Beltrami sur Bn. Une fonction f sur Bn telle que DF f = 0 est alors appelée DF -harmonique. La fonction de Green Γ pour DF, c'est-à-dire la fonction Bn × Bn → F qui vérifie m1 Z 1 (1 − t) 2 +m2 −1 l'équation (en z) DF Γ(ζ, z) = 0 sur Bn \ {ζ}, est donnée par Γ(ζ, z) = −cn dt 1+m1 +m2 2 kφz (ζ)k2 t avec cn une constante positive, qu'on notera Γ(ζ, z) = −cn γ(kφz (ζ)k2 ) 2.
Potentiels simple et double couche 2.1. Description des domaines
Dans cette note, Ω sera un ouvert relativement compact dans Bn de bord ∂Ω de classe C1+α (α > 0) et tel que ∂Ω = ∂Ω. Nous noterons Ω− = Ω et Ω+ = Bn \ Ω. Alors Ω est donné par une fonction définissante ρ de classe C1+α sur Bn telle que Ω− = {z ∈ Bn : ρ(z) < 0}, ∂Ω = {z ∈ Bn : ρ(z) = 0} et Ω+ = {z ∈ Bn : ρ(z) > 0}. Pour x ∈ ∂Ω, notons ηxg la normale extérieure à ∂Ω en x pour la métrique hyperbolique. Comme ∂Ω est une hypersurface compacte de classe C1+α, il existe un voisinage U de ∂Ω et ∂Ω × (−ε, ε) → U un ε > 0 telle que F : est un homéomorphisme de classe Cα. En particulier, (x, t) 7→ x + tηxg chaque y ∈ U appartient à une unique normale à ∂Ω et nous appellerons y0 ∈ ∂Ω la base de cette normale i.e. y = y0 + tηyg0. Il existe alors une constante C > 0 telle que pour tout y0 ∈ ∂Ω et pour tout y ∈ U, tels que y = y0 + tηyg0, ky − ζk > Cky0 − ζk, pour tout ζ ∈ ∂Ω. Enfin, notons dσg la contraction de dμ par rapport à la normale extérieure à ∂Ω pour la métrique hyperbolique.
2.2. Potentiel simple couche.
Définissons le DF -potentiel simple couche de ∂Ω par u∂Ω (z) = Z Γ(ζ, z)dσg (ζ). Comme dans [1], ∂Ω on montre alors :
P ROPOSITION 2.1. – Le potentiel u
∂Ω est bien défini et continu sur Bn. Preuve. La preuve est la même que dans [1], pour peu qu'on remplace l'estimation du noyau de Green complexe (13) par l'estimation plus générale vérifiée sur tout compact K de Bn : m1
+m
2
−1 kΓ(ζ, z)k 6 CK |1 − hζ, zi| 2 (1 − kzk ) m1 +m2 −1 2 m1 +m2 −1 kz − ζk 6 CK 1 kz − ζk m1 +m2 −1, pour z ∈ K, ζ ∈ ∂Ω. 2.3. Saut de la dérivée normale
La proposition centrale de cette note est alors la suivante : P ROPOSITION 2.2. – Pour tout compact K de Bn, il existe alors une constante CK telle que, pour tout z ∈ K, ζ ∈ ∂Ω et pour tout i = 1,..., n on a et 4 CK ∂Γ ∂Γ CK = (z, ζ)
+ (
z,
ζ)
6
m +m −1 nd−2 1 2 ∂zi ∂ζi kz − ζk kz − ζk
(2.3
) CK
∂
Γ CK
. (
z
,
ζ
)
6 m +
m
=
nd
−1 ∂zi kz − ζk 1 2
k
z − ζk
(2.4) Estimations du Noyau de Green sur les boules hyperboliques Preuve. Il suffit de voir que
m 2 1 +m2 −1 2 1 − kφz (ζ)k 2 ∂Γ ∂kφz k (ζ) (z, ζ) =cn m +m +1 ∂zi ∂zi kφz (ζ)k 1 2 m 2 1 +m2 −1 2 1 − kφz (ζ)k 2 2 zi (1 − hζ, zi) − ζi (1 − kzk ) =cn × (1 − kζk ). m +m +1 2 1 − hζ, zi kφz (ζ)k 1 2 |1 − hζ, zi|
(2.5) Comme (z, ζ) ∈ K × ∂Ω un compact dans Bn × Bn, et comme |1 − hζ, zi| ne s'annule que pour z = ζ ∈ Snd−1, on a la minoration |1 − hζ, zi| > C. Avec (1.2), il vient alors
cn 2 1 − kφz (ζ)k m1 +m2 +1 kφz (ζ)k m1 2 +m2 −1 2 |1 − hζ, zi| 6 CK 1 m1 +m2 +1
. (2.6) kz − ζk
D'après (2.5) et (2.6), pour démontrer (2.3), il nous reste à estimer 2 2 (1 − kζk ) 2 zi (1 − hζ, zi) − ζi (1 − kzk ) 2 ζi (1 − hz, ζi) − zi (1 − kζk ) + (1 − kzk ) 1 − hζ, zi 1 − hz, ζi 2 2 −hζ,zi kζk −hz,
ζi
qu'on réécrit zi (1 − kζk ) kzk 1−hζ,zi + ζi (1 − kzk ) 1−
hz
,
ζi
puis 2
hz − ζ
,
zi 2 hζ − z
,
ζi 2 hz − ζ
,
zi (zi − ζi )(1 − kζk ) + ζi (1 − kzk ) + (1 − kζk ). 1 − hζ, zi 1 − hz, ζi 1 − hζ, zi 2 2 (2.7)
2 Le premier terme est évidemment en O(kz − ζk ), alors que le second terme s'écrit ζi hζ − z, ξi avec 2 ξ = (ζ − z) 2 2 2 2 2 2 1 − kzk (kζk − kzk )(1 + kζk + kzk ) + hζ − z, zikzk − hz − ζ, ζikζk +z. 2 1 − hz, ζi |1 − hz, ζi| 2 Par suite kξk = O(kz − ζk) et le second terme de (2.7) est aussi un O(kz − ζk ). Pour l'inégalité (2.4), il suffit de voir que zi (1 − hz, ζi) − ζi (1 − hζ, zi) = (zi − ζi )hz, z − ζi, qui est donc un O(kz − ζk), puis d'utiliser l'inégalité (2.6). 2 Z Définissons le DF -potentiel double couche de ∂Ω par v∂Ω (z) = gradζ Γ(ζ, z), ηζ dσg (ζ). En re- ∂Ω prenant la preuve de la proposition 3 de [1], basée sur la formule de Green pour DF, on voit aisément que v∂Ω (z) = 0, pour z ∈ Ω+ et v∂Ω (z) = 1, pour z ∈ Ω−. (2.8) Nous allons maintenant nous intéresser aux limites Z ∂u∂Ω (z ) = lim hgradz Γ(ζ, z), ηz0 idσg (ζ) = lim v∂Ω (z) 0 ∂η + z→z0, z∈Ω+ ∂Ω z→z0, z∈Ω+ z=z0 +tηz0 ∂u∂Ω (z0 ) = lim ∂η − z→z0, z∈Ω− z=z0 +tηz0 Z hgradz Γ(ζ, z), ηz0 idσg (ζ) = ∂Ω z=z0 +tηz0 lim v∂Ω (z). z→z0, z∈Ω− z=z0 +tηz0
Fixons ε > 0. Soit z0 ∈ ∂Ω, pour z ∈ Ω+Z∩ U, z = z0 + tηz0, t > 0 et pour z 0 ∈ Ω− ∩ U, z 0 = z0 + τ ηz0, τ < 0, considérons v∂Ω (z) − v∂Ω (z 0 ) = hgradz Γ(ζ, z), ηz0 i − hgradz0 Γ(z 0, ζ), ηz0 i dσg (ζ).
∂Ω 5 C. Domenichino, P. Jaming
Pour 0 < δ < 21 d(ζ, Snd−1 ), notons Sδ = {ζ ∈ ∂Ω : kζ − z0 k 6 δ}, qui est alors compact dans Bn. Réécrivons la dernière intégrale à l'aide de (2.8) : Z Z hgradz Γ(ζ, z), η
z
0 −
ηζ
idσg (ζ) − hgradz0 Γ(z 0, ζ), ηz0 − ηζ idσg (ζ) + (2.9) Sδ + Z Sδ + Z Sδ gradz Γ(ζ, z) + gradζ Γ(ζ, z), ηζ − gradz0 Γ(z 0, ζ) + gradζ Γ(z 0, ζ), ηζ dσg (ζ) + gradz Γ(ζ, z) + gradζ Γ(ζ, z), ηζ − gradz0 Γ(z 0, ζ) + gradζ Γ(z 0, ζ), ηζ dσg (ζ) + (2.10) (2.11) ∂Ω\Sδ + Z (hgradz Γ(ζ, z), ηz0 − ηζ i − hgradz0 Γ(ζ, z 0
),
ηz0 − ηζ i)
dσg (
ζ
) + 1 (2.12) ∂Ω\Sδ Ensuite, en procédant comme dans [1], mais en utilisant les estimations (2.3)-(2.4), on voit que, pour z ∈ {
ω
∈ Bn : ω = z0 + tηz0, t ∈ [−ε, ε], kω − z0 k 6 δ} et ζ ∈ ∂Ω, le terme gradz Γ(ζ, z) + gradζ Γ(ζ, z), ηζ 1 est uniformément dominé par kz−ζk1 nd−2. Par conséquent, c'est un O kz −ζk et l'intégrale (2.10) est nd−2 0 enO(δ). Ensuite, en utilisant (2.4) et la régularité de ∂Ω, on montre que hgradz Γ(ζ, z), ηz0 − ηζ i est un O kz −ζk1nd−1−α. Ainsi, les intégrales (2.9) sont en O(δ α ). En particulier, pour un bon choix de δ, les 0 intégrales (2.9)-(2.10) sont 6 ε. Enfin, les intégrales (2.11)-(2.12) sont continues en z, z 0 pour peu que kz − z0 k < 2δ, kz 0 − z0 k < 2δ on peut donc également les rendre < ε. Nous avons ainsi démontré ∂u∂Ω ∂u∂Ω (z0 ) − (z0 ) = 1.
P ROPOSITION 2.3. Caractérisation des boules géodésiques par la propriété de la moyenne
Les estimations de la section précédente nous permettent de démontrer le théorème suivant : T H ÉOR ÈME 3.1. – Soit Ω ⊂ Bn un domaine relativement compact à bord ∂Ω de classe C1+α, α > 0 et tel que ∂Ω = ∂Ω et soitZa ∈ Ω. Supposons que pour toute fonction f DF -harmonique au voisinage de 1 Ω on ait f (a) = f (ζ)dσg (ζ) alors Ω est une boule hyperbolique centrée en a, c'est-à-dire σg (∂Ω) ∂Ω Ω = φa (Br ) où Br est une boule euclidienne centrée en 0. Esquisse de preuve. La preuve suit de près celle de [1] et est inspirée de celle de [2]. Nous avons inclus les détails dans la version anglaise.
2 Second
author partially
supported
by
the European Commission (TMR 1998-2001 Network Harmonic Analysis)..
| 50,884
|
02/tel.archives-ouvertes.fr-tel-00294728-document.txt_28
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 6,806
| 10,363
|
526 pouvait pas financer le projet. Le 12 décembre 1991, un projet de 10 millions de DM a été présenté au conseil municipal, mais une initiative populaire est lancée en 1992 contre cette décision sans être valide juridiquement (la question n'est pas assez précise et est source de malentendus). L'effet de cette initiative rejetée est de suspendre la décision locale et donc de bloquer le projet d'investissement. Enfin, un référendum local a vu le jour le 14 mars 1993 : avec un taux de participation de 49,1%, les habitants ont approuvé l'objet du référendum (56,3%), mais le référendum n'a pas été validé à cause de la faible représentativité de la position majoritaire (21,4%). Les autorités sont passées outre le déficit de quorum pour approuver la position majoritaire et décider de la construction d'une nouvelle salle des fêtes le 12 décembre 19931. On perçoit combien le référendum local peut être source de blocage et d'ajournement d'une politique locale jugée trop coûteuse par les habitants alors qu'elle concerne un équipement culturel. Il a fallu trois référendums, quatre initiatives et un questionnaire pour que les autorités s'affranchissent du quorum juridique et se décident en faveur de ce projet culturel. L'exemple de la commune de Schönau (2 500 habitants), dans le Bade-Wurtemberg, montre une situation de plusieurs référendums portant sur le même sujet. L'histoire des deux référendums tenus dans cette commune en 1991 et en 1996 remonte à 1986, lorsqu'au lendemain de l'accident de Tchernobyl, les écologistes de Schönau ont milité pour la production d'une énergie électrique propre. Un groupe du nom de « Parents pour un futur sans nucléaire » s'est constitué contre la firme régionale alimentant la ville en électricité (KWR). KWR souhaitait renouveler contrat avec la commune devant expirer en 1994. Le conseil municipal a accepté de justesse (sept votes contre six pour le renouvellement du contrat) et un référendum est organisé en octobre 1991. Avec un taux de participation de 74,3%, 55,7% des votants ont choisi l'abrogation du contrat avec KWR. Les environnementalistes ont alors fondé leur propre entreprise EWS alimentant la ville en électricité. En 1993, des élections ont porté à la mairie un candidat CDU (élections mayorales) qui s'était prononcé en faveur d'EWS. En 1994, les élections municipales ont vu l'arrivée de conseillers indépendants et en 1995, KWR et EWS ont présenté à la ville un contrat en compétition. 527 votes contre 5, en faveur d'EWS. Une initiative populaire a été lancée, soutenue par la CDU entre autres et en 1996 a lieu le référendum. Avec un taux de 84,3%, les votants ont largement plébiscité le projet des environnementalistes (52,4%). C'est le 1er juillet 1997 que l'entreprise EWS a pris en charge l'énergie électrique de la ville, les environnementalistes espérant remplacer totalement l'énergie nucléaire autour de l'année 20051. La position des environnementalistes a été confirmée dans le temps par un référendum qui vient marquer solennellement la fin d'un débat public local très intense et d'une mobilisation très forte des écologistes et des entreprises. La temporalité référendaire excède nettement le calendrier électoral et allonge considérablement le délai d'émission des politiques publiques locales. Malgré tout, les situations de blocage récurrent restent exceptionnelles et dans la plupart des cas, le référendum vient terminer un débat sur une question d'intérêt local avec l'incertitude quant à son résultat. II. L'isolement du référendum au sein du dispositif participatif
La démocratie participative est perçue comme une voie médiane ne remettant pas fondamentalement en cause le principe représentatif, mais le transformant dans le sens d'une perméabilité aux demandes de la société civile en dehors du calendrier électoral. Il existe une ouverture du temps représentatif aux citoyens désireux de s'engager aux côtés des élus dans un processus de dialogue à propos de l'impact d'une politique publique ou d'un projet de politique publique. Selon Slobodan Milacic, « Ce qui est relativement nouveau, c'est son inscription à l'ordre du jour principal et sa fréquente valorisation par évocation, bien davantage que par la définition ou, a fortiori, les réalisations »2. Il est vrai que la démocratie participative, contrairement à la démocratie directe plus réduite en termes d'instruments, relève d'une lutte pour la définition. Pour Cécile Blatrix, « la construction sociale du phénomène participatif relève ainsi d'une compétition entre acteurs
1 Bouwe R. DJIKSTRA, Patrick R. GRAICHER, septembre 2000, « Showdown in Schönau: a contest case study », Discussion Paper Series, Department of Economics, n°328, Université d'Heidelberg. 2 Slobodan MILACIC, 2006, « Démocratie représentative devant un défi historique? », dans Rafaâ BEN ACHOUR, Jean GICQUEL, Slobodan MILACIC, La démocratie représentative devant un défi historique, Bruxelles, éditions Bruylant, p. 29. 528 aux positions et logiques différentes pour imposer leur conception de la "démocratie participative"
»1. Elle a montré dans sa thèse comment les élus français ont tenté de réduire au maximum l'institutionnalisation de procédures participatives venant menacer la légitimation élective. La prolifération des dispositifs participatifs témoigne de cette concurrence en termes définitionnels et de cette difficulté à préciser les modalités d'intervention des citoyens sur la scène politique eu égard au développement des politiques publiques. Dans ce contexte, le référendum pose deux problèmes, à savoir qu'il peut court-circuiter la relation entre élus et forces vives locales (associations) ; d'autre part, il a une prise directe sur la décision. Alors qu'en France, il existe une multiplication d'instruments participatifs consultatifs, le référendum communal reste considérablement marginalisé. En Allemagne, là où le référendum communal est intégré, on trouve également d'autres outils participatifs, ce qui montre la cohérence de l'institutionnalisation de ces procédures. Cependant, en Allemagne, là où la législation n'est pas favorable au référendum, l'initiative populaire et la pétition restent tolérées, l'important étant de neutraliser le prix de sortie, c'est-à-dire la contrainte pesant sur la décision locale. Si nous prenons le cas des législations réfractaires en Allemagne, nous trouvons une situation similaire à la France avec toutefois une différence importante : là où les élus français feraient la promotion d'une multitude d'outils consultatifs, les autorités de ces Länder n'ont pas jugé utile de restreindre l'initiative populaire contraignante. Contrairement à la France, les efforts des mobilisations de l'après-1968 en Allemagne ont porté sur l'institutionnalisation de la pratique référendaire. Le référendum local a été en fait un support institutionnel ant à des mouvements extra-parlementaires d'exprimer leurs revendications vis-à-vis des systèmes politiques locaux. A) La relation entre le référendum local et les autres instruments de démocratie participative
Le référendum local est un outil de démocratie directe issu de l'impossibilité de réunir l'ensemble des citoyens sur un espace public physiquement délimité. En réalité, son usage a été légitimé par la nécessité de remédier aux dysfonctionnements du système représentatif ainsi que par la désuétude du mode de l'assemblée communale soit qui reste en vigueur dans 1 Cécile BLATRIX, 2000, La « démocratie participative », de Mai 1968 aux mobilisations anti-TGV, processus de consolidation d'institutions sociales émergentes, Thèse de doctorat, Université de Paris I, p. 48. 529 certaines communes, soit qui est réaménagé en points de rencontres entre le maire et ses administrés. Il est intéressant de noter que cette subsistance est destinée à éviter la perturbation du temps représentatif occasionnée par les référendums et dont l'effet d'incertitude gêne considérablement les systèmes politiques locaux.
1) Les assemblées communales extraordinaires
On trouve encore des traces d'assemblée communale1 en Allemagne sans qu'il y ait de véritable décision prise en commun. La multiplication des points de dialogue et de consultation est faite pour éviter le lancement d'initiatives populaires et de référendums locaux. Il faut en réalité distinguer l'assemblée communale (Gemeindeversamlung)2 qui correspond à l'assemblée des habitants délibérant et décidant directement des affaires communales et l'assemblée extraordinaire (Bürgerversammlung) qui de son côté correspond à une réunion des habitants avec le maire (Einwohnerversammlung). C'est pourquoi ce type ancien de démocratie directe a manifestement été récupéré par des maires soucieux de sonder l'opinion de leurs administrés pour prendre en compte une demande sociale particulière. Le référendum local, susceptible de mener à une décision populaire, contourne la volonté des élus qui le vivent difficilement. En France, pendant les années 1960 et 1970, les idées autogestionnaires de certains élus avaient réanimé ces assemblées communales, à l'instar de la commune de Saugues où la première assemblée communale a eu lieu en janvier 1966. C'est aussi le cas de Saint-Luzin (Maine-et-Loire, 700 habitants) où une assemblée annuelle permettait à tous les habitants de faire le point et le bilan de l'action municipale3. Cette pratique subsiste de manière très
1 Cette assemblée communale trouve ses racines dans les premières assemblées german
où les hommes élisaient le roi, décidaient de la paix et de la guerre, exerçaient la haute justice contre les traîtres et mettaient à l'épreuve les jeunes hommes en âge de porter les armes.
Pierre
G
AXOTTE, 1963, Histoire de l'
Allemagne
, tome I, Paris, éditions Flammarion, p. 24. 2 En ce qui concerne les assemblées locales, les Länder du Schleswig-Holstein, de la Basse Saxe, de la Hesse et du Bade-Wurtemberg avaient adopté des chartes municipales prévoyant des assemblées directes, soit facultatives soit obligatoires pour les communes de moins de 200 habitants.
Hellmut WOLLMANN, 1999, « Le système local en Allemagne : vers un nouveau modèle de démocratie locale? », dans CURAPP/CRAPS, La démocratie locale. Représentation, participation et espace public, Paris, PUF, p. 110. 3 Roger BEAUNEZ, Francis KOHN, 1975, La démocratie locale, un préalable : l'information dans la cité, Paris, éditions ouvrières, p. 116. 530 marginale dans des communautés anarchistes qui pratiquent l'entente consensuelle sur toutes les questions d'organisation. Lors d'une discussion collective avec quatre militants de la communauté Longo Maï en Ardèche, ceux-ci ont rappelé qu'il existe plusieurs éco-villages et communes anarchisantes organisés à partir des procédures de démocratie directe qui demandent un investissement conséquent. Les décisions sont prises à main levée et comme le rappelait l'un des membres de cette communauté : « nous connaissons ce que nous nommons des situations de mini-putsch, lorsque quelqu'un tente d'imposer ses positions sans que la discussion ait été jusqu'à son terme »1. Le principe de cette auto-organisation existe dans des communautés anarchistes et également dans certaines communes rurales. En Allemagne, si la Gemeindeversammlung subsiste de manière très marginale en tant que mode de gestion des affaires locales, il existe encore des réunions régulières avec les élus locaux et tous les habitants dans un certain nombre de communes. On parle alors d'assemblée communale même si elle ne se substitue en aucun cas aux institutions représentatives. Le mode de la Bürgerversammlung avait été défendu par des libéraux tels que von Rotteck dès les années 1830 lors du Frühliberalismus afin d'associer l'autonomie communale aux pratiques de démocratie directe2. De nos jours, il s'agit plutôt de renforcer le lien entre l'élu et ses administrés. Par exemple, la charte communale du Land de Hesse prévoit que les assemblées communales doivent avoir lieu dans les villes et les communes au moins une fois par an. Les conseillers municipaux sont ainsi interpellés sur des questions importantes sans qu'il y ait une quelconque contrainte en matière décisionnelle3. L'assemblée est dirigée par le conseil municipal qui devient pour l'occasion un conseil extraordinaire destiné à associ les habitants aux débats locaux. La Bürgerversammlung est encore pratiquée dans des communes 1 Rencontre avec quatre membres de la communauté de Longo Maï (Ardèche), le 4 mai 2002 à l'ENSLSH de Lyon. 2 Jörg BOGUMIL, Lars HOLTKAMP, 2006, Kommunalpolitik und Kommunalverwaltung, eine policyorientierte Einführung, Wiesbaden, Verlag für Sozialwissenschaften, p. 20. 3 Hessische Gemeindeordnung (HGO), 25 Februar 1952, § 8a
: «
Zur
Unter
richtung
der
Bürger über
wichtig
e Angelegenheiten der Gemeinde soll mindestens einmal im Jahr eine Bürgerversammlung abgehalten werden.
In grö
β
eren Gemeinden
können
Bürgerversammlungen
auf
Teile
des
Gemeindegebiets beschränk
t werden » [
En vue de
l'information des citoyens, une assemblée générale citoyenne doit
avoir lieu au moins une fois par
année
.
Dans les communes
de
taille plus importante
,
ces
assemblées peuvent être limitées à une partie du territoire communal]. 531 bavaroises1. Par exemple, dans la ville de Nuremberg, l'assemblée communale est en fait une réunion régulière avec le maire. La commune est partagée en 22 secteurs et le maire s'y rend de temps en temps pour y rencontrer les habitants de la commune (pas forcément du quartier même puisque cette assemblée est ouverte à tous les habitants). « Théoriquement, cette assemblée a lieu une fois par an, mais en pratique elle se produit tous les deux ans. Sur 30 000 personnes d'un secteur pouvant y assister, on compte 300 à 400 participants »2. Cette pratique plus symbolique est destinée en partie aux habitants des secteurs qui n'ont pas un élu de quartier et qui peuvent ainsi faire part de leurs préoccupations. Elle n'a donc pas grand-chose à avoir avec les assemblées communales chargées de délibérer et de décider des affaires locales. En revanche, il existe une spécificité bavaroise qui consiste à la création d'un délégué de secteur (Ortsprecher) qui siège au conseil municipal mais qui n'a pas le droit de voter sur les délibérations locales. « Le délégué de secteur a une vieille légitimité démocratique, on peut considérer cette institution comme relevant de la participation locale des habitants au même titre que l'initiative populaire, le référendum local et l'assemblée communale [] Le délégué de secteur est élu dans son secteur et siège au conseil, il est considéré comme un membre à part entière de ce conseil. Cette institution se retrouve dans les grandes villes et existe depuis plus de soixante ans. Elle fonctionne mieux à Erlangen et à Münich »3. Les délégués de secteurs sont en fait élus au moment des assemblées communales, d'où le lien entre ces deux institutions. Il existe la pétition (Bürgerantrag) et également des représentants d'arrondissements Stadtbezirkevertretung) à Ingolstadt et à Münich. Ces représentants font partie des associations locales qui sont implantées dans chaque secteur de la ville. Tous les trois mois, ces Bürgervereine sont invités à une table ronde avec le maire pour une session de discussion (Bürgervereinsrunden). Notre interlocuteur nous a présenté ce panel d'instruments de démocratie participative et directe en insistant sur la difficulté qu'il y a à maintenir une démocratie vivante. Les structures parallèles peuvent à un certain moment empêcher les possibilités de rénover les pratiques démocratiques. 3 Ibid. 532 institution de médiation locale a néanmoins été soulignée par certains élus locaux français à l'instar de Michel Charzat, maire du 20e arrondissement de Paris. « En Allemagne s'affirme le phénomène de la Bürgerinitiative destinée à faire remonter vers le conseil communal réflexions et propositions, comme [celle] de la Bürgerversammlung, assemblée générale consultative des citoyens »1. On voit à quel point une expérience de participation des habitants à la vie locale peut poser des problèmes d'application tout en étant louée à l'étranger. La Bürgerversammlung fonctionne de manière résiduelle, il n'empêche qu'elle inspire les maires à idéologie participative. Parfois, cette assemblée peut compléter la campagne d'un référendum communal comme nous l'avons remarqué dans l'une de nos observations simples dans la ville d'Hambourg. Lors d'une observation datant du 8 novembre 2005, les panneaux publics d'affichage mentionnaient la tenue d'une Bezirkversammlung par la majorité CDU et GAL (Verts de la ville d'Hambourg) à propos de la piscine Bismarck dans le quartier d'Altona. Cette assemblée de quartier était annoncée pour le 9 novembre 2005 à 20h dans la salle de conférences du lycée Wilhöden2. Une autre assemblée était annoncée pour le 23 novembre 2005 à 19h30 dans la grande salle d'accueil du lycée Rudolf-Steiner. À Pforzheim, dans le Land du Bade-Wurtemberg, une invitation a été envoyée aux habitants dans le cadre d'une Bürgerversammlung prévue le 20 janvier 2000 avant la tenue d'un référendum local le 30 janvier. Le maire a lui-même convoqué les habitants à cette réunion publique pour présenter les enjeux de ce référendum sur la rénovation d'un complexe sportif3. À Plüderhausen (9 000 habitants), une initiative populair soutenue par l'opposition municipale (SPD, FDP) avait contraint le maire CDU (parti conservateur) à organiser un référendum local en 2001. L'objectif des initiateurs, qui était de contester l'extension de l'école sur un territoire particulier de la commune, n'a pas été suivi par les citoyens qui ont choisi l'option défendue 1
Michel CHARZAT, 1998, Le Paris citoyen, la révolution de la démocratie locale, Paris, éditions Stock, p. 113. 2 Observation simple réalisée le 8 novembre 2005 dans le quartier
d
'Altona : « Die
Fraktionen von GAL und
CDU in
der Bezirkversammlung Altona laden ein Informationsforum zum Bürgerentscheid Bismarckbad, Warum ein neues Sport-und Freizeitbad, Ihre Wahl sein sollte! » [Les fractions GAL et de la CDU de l'assemblée du district Altona vous invitent à un forum d'information au sujet du référendum local de la piscine Bismarck, pourquoi une piscine sportive et de loisir devrait être votre choix] 3 Pforzheimer Zeitung, 24 janvier 2000. 533 par le maire. Une Bürgerversammlung de 100 habitants avait été organisée dans la phase de préparation du référendum local. La traduction d'une expérience participative d'un pays à l'autre suppose l'évaluation des effets de l'instrument considéré. En fait, le fonctionnement de la Bürgerversammlung est proche de celui d'un conseil de quartier français et ne rappelle que très indirectement l'expérience des communautés d'habitants (Gemeindeversammlung) d'antan censées délibérer sur les affaires les plus importantes de la commune ou du quartier. On peut en fait relier l'inscription de ces conseils de quartier dans le paysage local aux réminiscences lointaines de l'histoire de Paris, lorsque la ville s'était dotée de chartes communales aux XIIe et XIIIe siècles1. Cette époque avait été marquée par le renouveau du régime municipal avec un certain nombre de libertés accordées aux municipalités2. Tout se passe comme si la présentation de l'outillage participatif tendait à minimiser la place du référendum pour endiguer la menace potentielle qu'il représente.
2) Le privilège des conseils de quartier
Le conseil de quartier apparaît en France comme l'organe par excellence de la démocratie participative et les élus y sont beaucoup plus favorables en raison de son caractère consultatif. Il existe différents types de structures. Les simples conseils de quartier ont lieu une à deux fois par an et sont purement consultatifs. Leur profil diffère des Bürgerversammlungen allemandes dans la mesure où seul l'élu référent du quartier y est présent et non le maire. L'agenda est généralement déterminé par les élus référents, et les habitants relais servant de contact alors qu'en Allemagne, les habitants d'un quartier peuvent provoquer la tenue d'une assemblée extraordinaire du quartier. Beaucoup de communes françaises assimilent les conseils de quartier à démocratie participative puisque la loi n°2002-276 du 27 février 2002 les rend obligatoires pour les communes de plus de 80 000 habitants, ce qui concerne en réalité 53 communes. Cette loi a également rendu obligatoires les commissions consultatives des services publics locaux dans les communes de plus de
1 Dominique WOLTON, 1998, « La ville, l'espace public et le citoyen, postface », dans Michel CHARZAT, 1998, Le Paris citoyen, la révolution de la démocratie locale, Paris, éditions Stock, p. 176. 2 Augustin THIERRY, 1884, Essai sur l'histoire de la formation et des progrès du Tiers Etat, Paris, Jouvet et Compagnie, seizième édition revue et corrigée, p. 292. 534 10 000 habitants. Selon l'enquête menée avec Julien Dewoghélaëre, 37 de ces communes affichent numériquement ces outils participatifs1. Guy Lorant montre à juste titre le risque pris par le législateur de vouloir codifier une structure par essence expérimentale et qui dépend des problématiques propres à un territoire. « On a codifié une pratique dont nul ne sait si elle est la mieux adaptée à l'objet qu'on veut promouvoir. Comment, en effet, sont nés les conseils ou comités de quartier, là où ils existaient avant que la loi ne les rende obligatoires? »2 Cette loi illustre la tentative faite par le législateur de vouloir objectiver une norme participative qui conduirait à établir les modalités d'organisation de la participation des habitants à la vie locale. Lors d'une observation simple d'un conseil de quartier à Bordeaux3 (quartier Grand Parc- Chartrons- Paul Doumer), nous avons constaté qu'ils étaient l'occasion de discussions sur des projets municipaux en cours portant sur le quartier tels que la construction de la piscine du Grand Parc, le gymnase des Chartrons, l'extension de l'hypermarché Leclerc Saint-Louis. Le conseil de quartier vise en fin de compte à traduire auprès des habitants les décisions du conseil municipal relevant de leur quartier. D'autres projets en cours (ce fut le cas à cette séance du projet de Pont Bacalan / Bastide) font l'objet de plaintes sans que ces conseils soient des lieux de véritable échange alors qu'ils sont présentés comme étant un outil de démocratie participative. « Créés en 1995 par la mairie pour établir un dialogue de proximité entre les habitants et leur conseil municipal, les douze conseils de quartier de Bordeaux sont des lieux privilégiés de la démocratie participative. 10 000 Bordelais ont déjà choisi d'y participer pour se tenir informés, débattre et être associés à la gestion quotidienne et au devenir de leur quartier »4. La municipalité insiste sur la quantité des publics participants, vu le nombre relativement important de personnes présentes, sans préciser la manière dont sont reçus les avis des habitants. Les conseils de quartier sont de simples relais d'information sur la politique locale, la participation des habitants n'ayant que très peu d'influence sur le cours des décisions. 1 Enquête menée avec Julien Dewoghélaëre à l'IEP de Bordeaux entre mars et décembre 2006. 2 Guy LORANT, 2005, Les collectivités locales face aux défis de la communication, Paris, L'Harmattan, p. 129. 3 Observation simple du conseil de quartier du Grand Parc - Les Chartrons - Paul Doumer, le 15 juin 2006. 4 Présentation des conseils de quartier de la ville de Bordeaux. http://www.bordeaux.fr/ebx/portals
Étant donné que l'assemblée de quartier a un budget, elle est définie comme un outil de démocratie participative, même si elle est sous étroite surveillance des élus locaux. La loi du 27 février 2002 garantit l'existence de ces assemblées qui font partie des expériences des communes : « Chaque quartier est doté d'un conseil de quartier dont le conseil municipal fixe la dénomination, la composition et les modalités de fonctionnement. Cette disposition, respectueuse des responsabilités des élus locaux, est de nature à préserver les expériences en cours dans ce domaine dans plusieurs villes. Les instances de quartier, précédemment mises en place par les conseils municipaux ou créées sur l'initiative des habitants ou d'associations, pourront dont être maintenues par le conseil municipal, le cas échéant, avec les adaptations qu'il jugera utile »1. Dans certaines communes à l'instar d'Arcueil, l'ordre du jour relève du « ressort collectif »2, à savoir les habitants et les élus. Le principe des budgets de quartier avait été voté en conseil municipal en 1996 et l'enveloppe s'élevait à environ 22 000 francs pour chaque quartier. « Il y a mille manières de participer à Arcueil. Les assemblées de quartier ont évolué, on va vers une autonomie et une prise en charge par les habitants eux-mêmes. Depuis 1995 et 1996, il existe des élus référents pour ces assemblées. L'ordre du jour s'élabore avec les habitants référents (pause de l
interlocutrice). L'assemblée de quartier détermine l'ordre du jour, on remarque une sorte d'auto-organisation sur les initiatives. Nous, de notre côté, on propose différentes démarches pour impliquer les habitants à la décision. Notre décision doit être éclairée par l'avis des habitants, les gens si vous voulez doivent pouvoir apporter leurs remarques avant la décision. En 1997, on a créé des budgets de quartier, les habitants déterminent à leur façon l'utilisation de cette enveloppe qui leur est allouée »3. Les assemblées de quartier sont établies en fonction de la carte scolaire, c'est-à-dire de l'emplacement des écoles. Selon Guy Bacheley, habitant référent du quartier Jolliot Curie à Arcueil, les habitants ne se reconnaissent pas dans l'assemblée du quartier Jean Macé, le découpage posant problème4. 2 Entretien réalisé par nos soins avec Farid Benadou, responsable de la mission citoyenneté de la mairie d'Arcueil, à Arcueil le 12 décembre 2003. 3 Entretien en face-à-face avec Anne Buyck, maire-adjointe d'Arcueil, réalisé le 16 décembre 2003. 4 Entretien réalisé par nos soins avec Guy Bacheley, habitant référent du quartier Jolliot Curie à Arcueil lors de la fête dudit quartier le 14 décembre 2003. 536 absolument pas représentative de leur composition, bien qu'une représentation miroir de la réalité n'existe pas. « En réalité, trois types de publics participent à ces assemblées : 1) les militants politiques et du milieu associatif 2) les classes moyennes actives et intéressées 3) les habitants qui de par leur statut (retraités) ont du temps pour s'impliquer Le problème est qu'il y a très peu de jeunes et puis (interruption de l'interlocuteur) très peu d'immigrés. [] Dans le quartier Laplace, peu de jeunes de la Vache Noire1 participent à l'assemblée de quartier Laplace. Cette assemblée de quartier ne fonctionne pas très bien il y a un réel problème d'animation »2. La question de la représentativité est souvent invoquée pour disqualifier ces procédures qui sont avant tout instituées pour discuter de sujets de politique locale et créer un lien avec les autorités. Ce fait a été confirmé par Guy Bacheley qui déplore le fait que les assemblées de quartier ont tendance à se focaliser sur les problèmes sociaux d'un périmètre. « On a essayé d'associer les sans-logis du quartier aux discussions du budget d'investissement. Cela n'a pas très bien fonctionné. On a alors délégué deux ou trois personnes pour travailler avec d'autres quartiers (pause de l'interlocuteur). À l'assemblée de quartier, on centralisait tous les problèmes sur les problèmes du HLM (et du Chaperon Vert)3, avec ça, eh bien, vous voyez, on fait fuir les gens. Je ne suis pas sûr que les gens auraient été intéressés par un aménagement »4. En revanche, le fonctionnaire territorial a insisté sur les vertus du référendum qui a permis de contourner ce défaut structurel. « Dans le travail de concertation, le projet prend en compte l'intervention habitants. L'assemblée de quartier n'est pas l'alpha et l'oméga de la vie politique locale. Le problème est que ces habitants ne participent pas. [] Tout est en déshérence, la participation citoyenne baisse. Pourtant, le référendum local sur "Les Portes d'Arcueil" démontre le contraire. Les habitants sont concernés à plus de (interruption et réflexion de l'interlocuteur) 60%, il était ouvert à tous les habitants d'Arcueil à partir de 16 ans »5. 1 La Vache Noire correspond à une cité du quartier Laplace par ailleurs composé d'ensembles pavillonnaires. 2 Entretien réalisé par nos soins avec Farid Benadou, responsable de la mission citoyenneté de la mairie d'Arcueil, à Arcueil le 12 décembre 2003. 3 Le Chaperon Vert est l'une des cités d'Arcueil, à proximité de la commune de Gentilly. 4 Entretien réalisé par nos soins avec Guy Bacheley, habitant référent du quartier Jolliot Curie à Arcueil lors de la fête dudit quartier le 14 décembre 2003. 5 Entretien réalisé par nos soins avec Farid Benadou, responsable de la mission citoyenneté de la mairie d'Arcueil, à Arcueil le 12 décembre 2003. Le terme « habitant » avait une résonance particulière pour notre interlocuteur puisque pour lui, « l'habitant est quelqu'un qui vit la ville. La catégorie « citoyen », ça ne veut rien dire parce que ce terme évacue formellement les immigrés. Le citoyen est celui qui vote »1. La démarche participative repose davantage sur les expériences des usagers, elle est pensée dans le sens d'une inclusion des préoccupations des habitants, la catégorie juridique de l'électeur étant trop rigide. Dans cette commune au passé communiste, la consultation locale pouvait tout à fait compléter les assemblées de quartier, sachant que ces procédures sont directement instituées et pilotées par le haut. Cependant, lors d'un entretien avec l'un des habitants-relais, nous avons perçu le fait que le développement des assemblées de quartier devait implicitement permettre d'éviter le recours au référendum local. « Le référendum de décembre 1999 sur "Les portes d'Arcueil" a été très bénéfique et le résultat a fait changer les plans de la municipalité []. À l'époque du référendum, les assemblées de quartier n'étaient pas aussi développées. La municipalité peut venir avec un projet aux assemblées de quartier et le discuter »2. En fait, l'assemblée de quartier a été conçue pour être le vecteur principal de la participation des habitants à la vie locale. La consultation est plus ponctuelle et n'intervient qu'en cas de projet de grande ampleur. Comme le rappelait l'un des maires-adjoints d'Arcueil, « Nous nous inscrivons dans une logique ouverte, il faut aller plus loin dans la démocratie participative (Pause de l'interlocuteur). Il s'agit d'associer à la décision ou plutôt d'une ouverture à la décision. La décision appartient aux éléments représentatifs on ne fait pas de démagogie, pas de mélange. Il faut faire comprendre aux habitants que la décision ne leur appartient pas, mais qu'ils accompagnent la décision. Ce n'est pas "Vous qui décidez", mais "Nous décidons et vous nous aidez à décider". C'est vrai qu'on est pas assez précis dans les débats avec les habitants. On leur fait croire que la démocratie est participative [] On a jamais la garantie de la représentativité globale, on peut même se planter s'il n'y a pas de participation. Pour le référendum sur la démolition de la Vache Noire, on a mis en place une démarche sur le logement avec les habitants depuis 1994. 1 Entretien précité. 2 Entretien en face-à-face réalisé par nos soins avec Guy Bacheley, habitant référent du quartier Jolliot-Curie lors de la fête dudit quartier le 14 décembre 2003. 3 Entretien en face-à-face avec le maire-adjoint d'Arcueil, Denis Weisser, lors de la fête du quartier Jolliot-Curie le 14 décembre 2003. Denis Weisser est l'élu référent du quartier Plateau Kergomard. 538 Le management de la participation requiert à la fois une réflexion et une expérience de la part des élus qui pilotent ces dispositifs. Le tableau suivant propose un récapitulatif du nombre d'années à l'actif du maire en fonction en France et en Allemagne dans le cadre de l'enquête menée auprès des maires européens de communes de plus de 10 000 habitants.
Tableau 84 : Nombre d'années du maire en fonction en France et en Allemagne Années 1 2 3 4 5 et plus Total Allemagne 33 108 138 296 61 636 France 14 43 66 38 27 188 Total 47 151 204 334 88 824 Pays Source: Banque de
données
SSD 0822 « The European mayor – Political leaders in the changing context of local democracy », Henry Bäck, School of Public Administration, Göteborg University. Lorsque nous examinons ces chiffres, nous nous rendons compte que 56,1% des maires allemands interrogés ont une expérience d'au moins quatre années contre 34,6% pour les maires français. Cela tient à la mandature allemande qui est beaucoup plus longue, d'autant plus que dans la plupart des Länder, l'élection du conseil municipal et l'élection du maire au suffrage universel direct ne sont pas simultanées. En ce qui concerne la relation entre cette expérience et l'attitude envers les instruments de participation, les constats sont les suivants : environ 80% des maires jugeant le référendum local approprié à la communication entre élus et citoyens et 75% des maires évaluant positivement le rôle des pétitions justifient d'au moins trois années de mandat1. Pour les conseils d'habitants ou les ateliers de quartier (neighbourhood panels), 76,3% des maires des deux pays évaluant positivement ce type de procédure justifient également d'au moins trois années de mandat. L'expérience des élus est encore plus déterminante que leur idéologie participative, le maniement de ces instruments requérant l'analyse minutieuse du pouvoir local et de sa façon de communiquer. Du côté des habitants, nous possédons quelques enquêtes de terrain ciblées sur un département à l'instar de l'enquête menée par le sondage de l'Institut CSA les 27 et 28 octobre 2006 auprès d'un échantillon de 803 habitants du Val-de-Marne2. À la question de 1 Base de données SSD 0822 « The European mayor – Political leaders in the changing context of local democracy », Henry Bäck, School of Public Administration, Göteborg University. Le résultat provient d'un tableau croisé réalisé à l'aide du logiciel Stata. 2 Il s'agit d'un sondage CSA/Conseil général du Val-de-Marne réalisé par téléphone sur un échantillon de 803 habitants âgés de 18 et plus (méthode des quotas, n°0601192). 539 savoir si les habitants ont entendu parler des dispositifs de participation, 58% ont entendu parler du conseil ou comité de quartier sans y avoir participé (16% y ont pris part), 36% ont entendu parler du droit de pétition (27% y ont pris part), 43% ont entendu parler du référendum local (12% y ont participé) et 29% ont déjà entendu parler du sondage ou des enquêtes de satisfaction (25% y ont participé). Pour l'évaluation de ces procédures, parmi les personnes connaissant ou ayant participé à un référendum local, 84% pensent que c'est un dispositif plutôt utile contre 92% en faveur de la réunion publique présentant un projet et 90% se prononçant pour le conseil de quartier. Le référendum local est relativement visible dans ce département puisqu'une dizaine de référendums locaux y ont eu lieu ces dix dernières années. Néanmoins, le référendum local n'est pas spontanément associé à une démarche délibérative contrairement au conseil de quartier qui est vu comme l'un des éléments les plus efficaces de la démocratie participative.
3) Les modalités de combinaison entre gouvernement représentatif et dispositifs de participation
En France, les élus locaux considèrent que le référendum local n'est pas la forme de participation des habitants à la vie locale la plus appropriée. Certains responsables politiques, à l'instar de Michel Rocard1, voient dans la multiplication des dispositifs de participation exerçant une contrainte sur la décision locale un danger pour le système représentatif. « Pour les peuples sages comme l'Allemagne, la démocratie représentative ne peut être complétée par des outils relevant de la démocratie directe comme le référendumLa démocratie participative adjoint de la consultation d'intéressés sous diverses formes. Élu maire en 1977, j'ai créé dix-sept commissions extra-municipales afin d'avoir une écoute des habitants sur la circulation, les écoles, l'accueil d'étrangersIl s'agit donc d'un complément utile de l'anonymat de la démocratie représentative, un peu frustrante. Il ne faut pas franchir la frontière entre les deux démocraties »2. Cet extrait révèle à quel point la démocratie participative ne se combine pas forcément à la démocratie directe dans l'esprit de certains responsables. La démocratie participative en tant 1 Michel Rocard a été maire de la ville de Conflans Sainte-Honorine dans le département des Yvelines. Sur le site internet de cette commune, nous trouvons mentionnés cinq comités consultatifs et l'effort de la commune en matière de démocratie depuis vingt-cinq ans. http://www.mairie-conflans-saintehonorine.fr/fr/vivre/index.html Site consulté le 29 mars 2007. 2 Olivier ROUQUAN, 6 novembre 2006, « Entretien avec Michel Rocard : « la pré-campagne est une forfaiture » », Sens Public, http://www.sens-public.org/article.php3?id_article=355 Consulté le 4 mars 2008 pour la dernière fois
. Christophe Premat – « La pratique du référendum local en France et en
Allemagne
»
540
que série d'instruments de consultation éclaire la décision sans
s
'
y substituer
.
La
référence à l'Allemagne
retient not
re attention
, puisque Michel Ro
card insiste sur le fait que le référendum n'est pas possible à l'échelon national, sans mentionner que ce moyen est fréquemment utilisé dans les Länder. Le référendum local, du fait qu'il ne s'applique qu'à une échelle territoriale inférieure, est un instrument à la limite de la démocratie participative et de la démocratie directe
. De surcroît, la démocratie participative offre une occasion aux élus locaux de contrôler étroitement la
participation
et de maîtriser l'
agenda
de la délibér
ation
et de la décision. Les commissions consulta
tives
et les conseils de
quartier
sont des exemples de cette structuration
du temps à leur avantage. Le public défini réunit associations et acteurs locaux : les modalités de la procédure sont tellement balisées que la participation est codée et beaucoup moins spontanée1. La place du référendum local est incertaine : il est tantôt perçu comme susceptible de générer une délibération collective et tantôt on réaffirme son caractère décisionnel. Les élus craignent que ce type de procédure échappe à leur contrôle, puisque dans les autres opérations de démocratie participative, leur rôle est central. Sophie Maire et Nicolas Val ont proposé une étude sociologique des conseils de quartier à Rouen, ville qui défend une vision de la pratique de la démocratie participative. Ils ont remarqué une moyenne d'âge supérieure à cinquante , une centralité du rôle de l'élu qui scande le déroulement de ces conseils ainsi qu'une individualisation du citoyen qui réagit uniquement en consommateur de politiques publiques et qui est pris pour tel par les autorités locales2. En d'autres termes, le piège de la démocratie participative est qu'elle risque de se transformer en mode de gouvernance technocratique ciblée sur des objectifs sectorialisés, les administrations essayant d'améliorer l'efficacité des politiques sans réellement faire participer les citoyens aux décisions locales. 2 Sophie MAIRE, Nicolas VAL, novembre 2006, « Regards croisés sur l'évolution de la démocratie locale, la construction d'une « démocratie de proximité » dans une ville de plus de 100 000 habitants », dans Démocratie participative en Europe, textes réunis par Stefan BRATOSIN et Dominique BERTELLI, Actes du colloque LERASS publiés avec le concours de la revue Sciences de la Société, p. 307. 541 technocratique »1 risque de provoquer une désaffection des citoyens qui, une fois qu'ils ont décodé le fonctionnement de ces réseaux de gouvernance, ne jouent pas forcément le jeu et refusent la participation. Le tableau suivant présente les effets des instruments de démocratie participative en Allemagne, où l'on parle plus volontiers de Kooperative Demokratie. La démocratie participative vise à introduire un juste milieu entre la démocratie représentative et la démocratie directe. Ainsi, les éléments de démocratie directe (Bürgerbegehren, Bürgerentscheide) introduits au début des années 1990 ont permis de démocratiser le cadre représentatif et de le rénover2. Les forums citoyens (Bürgerforen) organisés dans l'optique de l'agenda local 21 font suite aux propositions du sommet de Rio et les tables rondes indiquent également une volonté de dialogue entre les élus locaux, les experts en planification urbaine et les citoyens. La diversification des instruments de participation au niveau local a contribué au changement de regard sur la Selbstverwaltung allemande qui depuis la fin des années 1990 est de moins en moins considérée sous l'aspect d'une autonomie neutre3. La commune est véritablement devenue un pôle politique, l'institutionnalisation d'instruments de démocratie coopérative traduisant à la fois la constitution d'espaces publics locaux et la transformation des gouvernements locaux avec notamment la généralisation de l'élection directe des maires au suffrage universel. Contrairement à la France où l'exécutif et le législatif locaux ne sont pas séparés, les communes allemandes disposent d'un espace politique clair où les éléments de démocratie directe viennent révéler le fonctionnement du gouvernement local. Les procédures de participation ne divergent pas pour autant du cas français, mais leur impact sur le gouvernement local peut aisément être défini comme le montre le tableau ci-dessous.
Tableau 85 : Revue des dispositifs participatifs en Allemagne
Participation ponctuelle Participation durable
1 Yannis PAPADOPOULOS, 2003, « Cooperative forms of governance: Problems of democratic accountability in complex environments », European Journal of Political Research, n°42, p. 493. 2 Jörg BOGUMIL, Lars HOLTKAMP, 2006, Kommunalpolitik und Kommunalverwaltung, eine policyorientierte Einführung, Wiesbaden, Verlag für Sozialwissenschaften, p. 47. 3 Ibid., p. 48. Dispositif orienté vers le dialogue -Forums citoyens -Conseils communautaires -Procédures de médiation -Conseils des aînés -Cellules de planification (Planungszelle) -Conseils des handicapés -Parlements d'enfants et de jeunes -Conférences d'avenir (Zukunftskonferens) -Perspektivenwerkstatt (conseil d'avenir) -Démocratie électronique Dispositif non orienté vers le dialogue -Assemblées communales -Consultations de citoyens -Consultations d'habitants régulières -Pétitions d'habitants
Source : D'après Lars HOLTKAMP, Jörg BOGUMIL, Leo KIβLER, 2006, Kooperative Demokratie, Das politische Potenzial von Bürgerengagement, Frankfurt, New-York, Campus Verlag, p. 172. Il existe un double hiatus, à savoir un hiatus horizontal entre les instruments de participation ponctuelle et les instruments de participation durable et un hiatus vertical entre les dispositifs orientés vers le dialogue et ceux qui sont des simples dispositifs d'interpellation des autorités sans qu'il y ait un échange. D'après une enquête menée sur les communes de plus de 20 000 habitants en Rhénanie du Nord-Westphalie et dans le Bade-Wurtemberg, 85% d'entre elles ont affirmé avoir organisé dans les dernières années des assises sur le développement des activités économiques, 80% des forums dans le cadre de l'agenda local, 72% sur la participation des enfants et des jeunes et 59% sur la prévention criminelle1. Les formes de démocratie coopérative se sont développées dans ces institutions de forums au lieu d'être assimilées à des conseils consultatifs que la mairie promeut en permanence. Néanmoins, dans les deux pays, l'évolution de la démocratie participative est caractérisée par une plus grande précision dans la dénomination des instruments, permettant une participation plus ciblée et donc plus efficace. Par conséquent, l'institutionnalisation des instruments de démocratie participative va également dans le sens des réformes du New Public Management visant à rapprocher les citoyens consommateurs de politiques publiques de leurs administrations locales. Paradoxalement, la démocratie participative en tant que mise en oeuvre de débats locaux ciblés sur des enjeux de politique publique tend à rapprocher la démocratie locale de l'efficience des décisions locales. Il existe des instruments tels que les focus groups, les conférences de consensus ou les jurys citoyens destinés à préparer une
1 Ibid., p. 115.
| 46,189
|
html2005REN1S066_7
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 7,181
| 12,000
|
16 tel-00011287, version 1 3 Jan 2006
Intensité SH (u.a.) 12 8 4 0 130 170 210 250 290 330 Température (°C)
Figure III.36. : Intensité maximale du signal SH pour le verre 2SG-10%Sb polarisé à différentes températures pendant 30 min sous 4 et 5 kV
La température optimale de polarisation semble être située autour de 170°C. En dessous de cette température, on estime que l’efficacité de la polarisation est affaiblie : la température est trop faible pour fournir une énergie suffisante pour passer la barrière d’activation permettant la mise en place des phénomènes de migration de charges et/ou d’orientation de dipôles. Au-delà de 170°C, l’intensité du signal SH décroît lorsque la température augmente.
2.3.3.3. Epaisseur de la couche non linéaire
L’épaisseur de la couche non linéaire a été mesurée pour deux échantillons polarisés 30 min sous 4 kV à 170 et 230°C. Ces températures ont été sélectionnées en considérant le fait qu’à la température de 230°C, les surmodulations apparaissent sur l’enregistrement des franges de Maker et qu’à la température de 170°C, l’intensité du signal SH est maximale. Lors de l’attaque de la surface anodique par une solution d’hydroxyde de sodium (0,2 mol/L), l’intensité du signal SH a été enregistré in situ au cours du temps. La surface cathodique des échantillons a été protégée ainsi qu’une partie de la surface anodique. Le signal SH a été enregistré dans la zone protégée à la fin de l’attaque chimique et nous n’avons observé aucune baisse de son intensité. Les épaisseurs éliminées ont été 132
Chapitre III : Les verres
de sulfures mesurées par profilo
métr
ie lorsque que l’intensité du
signal
SH est devenue nulle dans la zone attaquée. La largeur de la région non linéaire a été estimée à environ 30 μm dans le cas du verre polarisé à 170°C et à environ 210 μm dans le cas du verre polarisé à 230°C. L’apparition de surmodulations sur l’enregistrement des franges de Maker nous indique clairement que l’épaisseur de la couche non linéaire croît lorsque la température de polarisation augmente. Cette hypothèse a été confirmée par les mesures des épaisseurs non linéaires de deux échantillons polarisés 30 min à 170 et 230°C sous 4 kV.
2.3.4. Effet de la durée de polarisation 2.3.4.1. Conditions expérimentales
Trois durées de polarisation ont été testées : 5, 30 et 60 min. La température de polarisation l’intensité du champ appliqué a été fixée à 4 kV.
Franges de Maker
2.3.4.2. L’enregistrement de franges de Maker a été effectué de -80 à 0°. Elles
sont représentées dans la figure III.37.. 30 25
Intensité SH (u.a.) tel-00011287
,
version
1
3
Jan 2006
a été fixée
à
170
°C, température à laquelle l’intensité du signal SH est maximale, et 20 15 10 5 0 -80 -60 -40 -20 0
Angle d'incidence (°) Figure III.37. : Franges de Maker obtenues pour un verre 2SG-10%Sb polarisé 5 min (), 30 min () et 60 min (u) à 170°C sous 4 kV
133
Chapitre III : Les verres de sulfures
Aucune surmodulation n’est visible sur ces trois enregistrements. Il est cependant à noter que l’intensité du signal SH est clairement plus élevée pour une durée de polarisation courte (5 min) puis à tendance à se stabiliser.
2.3.4.3. Epaisseur de la couche non linéaire
Les épaisseurs des couches non linéaires ont été déterminées par la mesure de l’intensité du signal SH in situ au cours du temps. L’échantillon a été fixé sur une cuve de plexiglas de deux centimètres de largeur, cette cuve présentant un trou permettant l’attaque chimique d’une partie de l’échantillon. Une partie de la zone attaquée par la solution d’hydroxyde de sodium a été protégée par un film adhésif imperméable afin de mesurer l’intensité du signal SH dans la zone non attaquée à la fin de l’enregistrement et ainsi d’écarter le problème d’une éventuelle baisse d’intensité naturelle au cours du temps. tel-00011287, version 1 3 Jan 2006
La cuve a été placée sur la table de rotation. L’onde de pompe arrive sur la face cathodique de l’échantillon et se propage dans le matériau jusqu’à la zone non linéaire où l’onde de second harmonique est créée. Un enregistrement du spectre de transmission dans le domaine visibleproche infrarouge d’une solution d’hydroxyde de sodium (0,2 mol/L) nous a montré que l’onde SH se propageait dans cette solution alors que l’onde de pompe était absorbée. Le dispositif d’enregistrement de l’intensité du signal SH a alors été optimisé pour que l’intensité du signal SH soit maximale lorsque la cuve est remplie d’eau. Du fait des différences d’indice du verre, de l’eau et du plexiglas, l’angle d’incidence de l’onde de pompe avec la surface cathodique permettant d’enregistrer le signal maximal a été alors fixé à 30°. Une fois les réglages optiques terminés, l’eau a été remplacée par une solution d’hydroxyde de sodium et l’enregistrement a débuté. L’épaisseur totale éliminée est mesurée par profilométrie à la fin de l’attaque. Comme dans le cas de l’étude du profil spatial de l’intensité du signal SH du verre 2S2G, on considère que la vitesse de l’attaque chimique est constante et qu’il n’y pas d’interaction entre la solution et la couche non linéaire. L’épaisseur totale mesurée nous permet de calculer la vitesse d’attaque et ainsi de déterminer le profil spatial de l’intensité du signal SH dans le verre 2SG10%Sb. Les résultats de l’enregistrement du signal SH in situ au cours de l’attaque chimique pour des verres polarisés 5, 30 et 60 min sont donnés dans la figure III .. L’épaisseur de la région non linéaire dans de ces verres ont été évaluées respectivement à 15, 30 et 37 μm. On observe donc une augmentation de l’épaisseur de la couche non linéaire lorsque la durée de polarisation augmente. Rappelons que les épaisseurs mesurées de ces régions non linéaires ne sont pas incompatibles à l’absence de surmodulation sur l’enregistrement des franges de Maker pour ces trois échantillons.
134
Chapitre III : Les verres de
sulfures
1,6 Intensité SH (u.a.) 1,2 0,8 0,4 tel-00011287, version 1 3 Jan 2006 0,0 0 5 10 15 20 25 30 35 40 45 50
Pronfondeur sous l'anode (μm) Figure III.38. : Profil spatial de l’intensité du signal SH d’un verre 2SG-10%Sb polarisé 5 min (), 30 min () et 60 min (u) à 170°C sous 4 kV
On observe également deux profils différents de l’intensité du signal SH en fonction de la profondeur. Dans le cas du verre polarisé 5 min, l’intensité du signal SH décroît lorsque l’épaisseur de la couche non linéaire diminue. L’intensité du signal SH peut être considérée comme nulle pour une profondeur sous l’anode de 15 μm. Dans le cas des verres polarisés 30 et 60 min, le profil spatial de l’intensité du signal SH est tout à fait différent. Dans le cas du verre polarisé 30 min, l’intensité du signal SH devient nulle à une profondeur sous l’anode d’environ 7 μm. L’intensité croît ensuite jusqu’à un maximum, plus élevé que le niveau de signal de départ, puis décroît pour devenir négligeable à une profondeur d’environ 30 μm. De même, dans le cas du verre polarisé 60 min, l’intensité du signal SH devient négligeable à une profondeur sous l’anode d’environ 13 μm. Elle croît ensuite jusqu’à un niveau de signal plus faible que le signal de départ puis décroît jusqu’à devenir nulle pour une profondeur de 37 μm. Notons dans ces deux cas que la longueur séparant deux minima est de l’ordre de deux longueurs de cohérence. On peut donc considérer que les variations sinusoïdales de l’intensité du signal SH en fonction de la profondeur sous l’anode sont dues à la variation de la longueur d’interaction dans la zone non linéaire dont l’épaisseur est supérieure à la longueur de cohérence.
135
Chapitre III : Les verres de sulfures Calcul de la susceptibilité non linéaire χ(2)
2.3.5. Le calcul de la susceptibilité non linéaire a été effectué pour un verre 2SG-10%Sb polarisé 5 min à 170°C sous 5 kV. Ce traitement thermique conduit à l’intensité du signal SH la plus élevée.
2.3.5.1. Profil spatial de l’intensité du signal SH
Un affinement a été réalisé pour représenter au mieux le profil spatial de l’intensité du signal SH. Le résultat de la simulation est donné dans la figure III.39.. 1,6 Intensité SH (u.a.) tel-00011287, version 1 3 Jan 2006
1,2 0,8 0,4 0,0 0 5 10 15 20 25
Profondeur sous l'anode (μm) Figure III.39. : Profil spatial de l’intensité du signal SH d’un verre 2SG-10%Sb polarisé 5 min à 170°C sous 4 kV
Les losanges représentent les points expérimentaux. La ligne continue correspond au meilleur affinement des points expérimentaux représentant le profil spatial de l’intensité du signal SH.
2.3.5.2. Profil spatial de la susceptibilité non linéaire χ(2)
Comme dans le cas du verre 2S2G, le profil spatial de la susceptibilité non linéaire χ(2) a été déterminé par recontruction, dont le principe a été décrit par Kudlinski et al. [23], à l’aide du profil affiné de l’intensité du signal SH en fonction de la profondeur sous l’anode (figure III.39.). Le résultat de la reconstruction du profil spatial de la susceptibilité χ(2) est donné dans la figure III.40.. 136
Chapitre III : Les verres de sulfures
0,4 Intensité SH (u.a.) 8 4 χ (2) (pm/V) 6 2 0,3 0,2 0,1 0 0 5 10 15 20 0,0 -80 25 -60 -40 -20 0
Angle d'incidence (°) Profondeur sous l'anode (μm) Figure III.40. : Simulation du profil spatial de (2) la susceptibilité χ Figure III.41. : Franges de Maker pour un verre 2SG-10%Sb polarisé 5 min à 170°C tel-00011287, version 1 3 Jan 2006 sous 4 kV
La reconstruction du profil spatial de la susceptibilité χ(2) nous a montré que contrairement au verre 2S2G, la région non linéaire n’est pas enterrée sous la surface anodique et que le maximum de la susceptibilité non linéaire d’ordre deux est situé précisément sous cette surface. De plus, son profil apparaît clairement rectangulaire. La valeur de la susceptibilité χ(2) a été déterminée de façon plus précise en comparant le profil expérimental des franges de Maker à leur profil théorique, calculé à partir du profil spatial de la susceptibilité χ(2) déterminée précédemment (figure III.40.). Nous avons déterminé la valeur de la non linéarité pour la meilleure simulation des valeurs expérimentales comme le montre la figure III.41.. L’amplitude moyenne de la susceptibilité non linéaire χ(2) est alors estimée à environ 8 ± 0,5 pm/V jusqu’à 7 μm sous la surface anodique. Dans le cas des verres polarisés 30 et 60 min, la reconstruction du coefficient non linéaire n’a pas été effectuée. Cependant, en considérant les profils spatiaux de l’intensité du signal SH dans ces deux verres, on peut représenter la distribution des charges dans la région non linéaire et par conséquent le profil spatial la susceptibilité χ(2). Nous proposons de le schématiser par la succession de profils rectangulaires comme le montre la figure III.42.. Les simulations effectuées à partir de ces modèles (lignes continues) se sont montrées en accord avec les résultats expérimentaux (losanges). Il apparaît donc d’après ces modèles que l’épaisseur de la région non linéaire croît au cours du traitement de polarisation thermique et parallèlement, la valeur du coefficient diminue χ(2).
137 1,2 1,2 0,9 0,9 Intensité SH (u.a.) Intensité SH (u.a.)
Chapitre III : Les verres de sulfures
0,6 0,3 0,0 0 10 20 30 40 0,6 0,3 0,0 50 0 2,5 2,5 2,0 2,0 (pm/V) 3,0 20 30 40 50 1,5 (2) 1,5 χ (2) (pm/V) 3,0 χ tel-00011287, version
1 3
Jan 2006 10 Profondeur sous l'anode (μm) Profondeur sous l'anode (μm) 1,0 1,0 0,5 0,5 0,0 0 10 20 30 40 0,0 50 Profondeur sous l'anode (μm) 0 10 20 30 40 50 Profondeur sous l'anode (μm) 30 min 60 min
Figure III.42. : Représentation schématique du profil spatial de la susceptibilité non linéaire χ(2) dans le verre 2SG-10%Sb après un traitement de polarisation thermique de 30 et 60 min à 170°C
2.3.6. Dynamique du phénomène
La dynamique du phénomène de polarisation thermique a été étudiée dans un verre 2SG polarisé 60 min à 170°C sous 4 kV. Les franges de Maker ont été enregistrées le jour même la polarisation thermique puis trois semaines après le traitement de polarisation. L’enregistrement de franges de Maker est représenté dans la figure III.43.. Tout d’abord il apparaît une baisse significative de l’intensité du signal SH trois semaines après le traitement de polarisation. De plus, l’apparition de légères surmodulations sur l’enregistrement des franges de Maker, jusqu’alors inexistantes, nous indique que la zone non linéaire évolue vraisemblablement au cours du temps. On peut alors penser que l’épaisseur de la couche non linéaire augmente avec le temps d’exposition à l’atmosphère ambiante.
138
Chapitre III : Les verres de sulfures
La création d’une non linéarité d’ordre deux apparaît comme un phénomène beaucoup plus stable que dans les verres 2S2G ou S2G-5%Ga. Le phénomène ne semble pas sensible à la lumière blanche. L’intensité des signaux SH diminue cependant d’un facteur cinq près de six mois après le traitement de polarisation.
12 Intensité SH (u.a.) tel-00011287, version 1 3 Jan 2006 9 6 3 0 -80 -60 -40 -20 0
Angle d'incidence (°) Figure III.43. : Enregistrement des franges de Maker après le traitement de polarisation () et trois semaines après le traitement de polarisation () pour un verre 2SG-10%Sb, polarisé 60 min à 170°C sous 4 kV 2.3.7. Analyses du phénomène
2.3.7.1. Spectroscopie Raman
Comme dans le cas des verres 2S2G et S2G-5%Ga, une analyse en profondeur de la zone non linéaire a été réalisée par spectroscopie de diffusion micro-Raman. Aucune différence significative n’a pu être observée entre les spectres Raman d’un échantillon de référence et un échantillon polarisé.
2.3.7.2. Spectrométrie de masse des ions secondaires (SIMS)
L’analyse SIMS a été réalisée sur une profondeur de 30 μm sous la surface d’un échantillon vierge et sur les surfaces anodique et cathodique d’un échantillon polarisé 30 min à 170°C sous 4 kV. La surface érodée par les sources ioniques est de 125 x 125 μm. Cependant, afin d’améliorer la qualité de la mesure, une fenêtre optique a permis de limiter la collection des ions sur une surface de 30 μm de diamètre située au centre de la zone érodée. Un
139 Chapitre III : Les verres
de
sulfures échantillon de référence (Verre silicate
S
RM610
) a été utilisé pour calibrer la concentration en ions Na+. L’évolution de la concentration de divers éléments (Ge, Sb, S, O, H et Na) a été suivie en fonction de la profondeur. Nous n’avons pas observé de différence significative de la concentration des éléments Ge, Sb et S en fonction de la profondeur. Aussi seuls les résultats enregistrés pour les ions H, O (figure III.44. (a)) et Na (figure III.44. (b)) sont représentés. Notons que les intensités des signaux mesurés ont été normalisées par l’intensité fournie par un élément de la matrice. Cette normalisation permet ainsi de minimiser les variations d’intensité liées notamment aux problèmes de charge et à la variation d’intensité du faisceau d’ions primaires. 10 b) 2 Intensité normalisé (u.a.) tel-00011287, version 1 3 Jan 2006
1 10 1 10 0 10 10 -2 10 -3 10 -4 10 -5 23 H and Oanode 16 H and Ocathode 1 16 H and Onon polarisé 1 16 -1 O 1 0 5 10 15 1 10 16 20 25 Intensité normalisée (u.a.) a) H 30 Na anode Na cathode 23 Na non polarisé 0 23 10 10 -1 10 -2 10 -3 10 -4 10 -5 0 5 10 15 20 25 30 Profondeur (μm)
Profondeur (μm) Figure III.44. : Profil des concentrations en O, H et Na en fonction de la profondeur sous les surfaces anodique et cathodique d’un verre 2SG-10%Sb, polarisé 30 min à 170°C sous 4 kV
Ces analyses nous ont tout d’abord permis d’estimer la concentration en hydrogène : elle est comprise entre 10 et 100 ppm à l’intérieur de l’échantillon. Ne disposant pas d’étalon pour doser l’oxygène, sa concentration n’a pas pu être mesurée. Une accumulation d’hydrogène et d’oxygène est visible sur une profondeur de 2 à 3 μm sous la surface pour tous les échantillons. Elle peut être attribuée à l’adsorption de molécules d’eau et d’oxygène par la surface du verre, l’échantillon étant resté à l’air ambiant après le traitement de polarisation thermique. Il est alors vraisemblable que la désorption de ces molécules lors de l’analyse contribue à surestimer la concentration au niveau de la surface en hydrogène – elle est estimée à 800 ppm et en oxygène. On peut toutefois noter une diminution de la quantité d’atomes d’hydrogène et d’oxygène près de la surface (entre 2 et 4 μm) dans le cas d’un échantillon polarisé comparativement à l’échantillon de référence. Ces résultats paraissent pourtant en désaccord avec ceux obtenus dans des verres de silice pour lesquels une injection d’ions H+ est visible après le traitement de polarisation thermique [24]. Cette baisse peut être attribuée, dans notre cas, 140 Chapitre III : Les verres de sulfures au chauffage de nos matériaux sous gaz neutre (N2 ou Ar). Cependant, il est à noter qu’une baisse plus significative de la concentration en hydrogène est observée sous la surface cathodique plutôt que sous la surface anodique. Cette baisse peut être attribuée à l’éventuelle migration des ions H+ sous l’effet du champ électrique extérieur lors du traitement de polarisation thermique. Cependant, le signal enregistré étant très bruité, une étude supplémentaire est nécessaire afin de tester la reproductibilité des résultats et afin de conclure de la validité de cette hypothèse. Une accumulation de sodium est observée sur une profondeur de 1,5 μm sous la surface de tous les échantillons, particulièrement dans le cas de l’échantillon polarisé. A des profondeurs plus importantes, une différence de concentration en sodium entre les faces anodique et cathodique apparaît clairement. Les concentrations en sodium étant quasiment identiques dans l’échantillon de référence et sous la surface cathodique – elle est comprise tel-00011287, version 1 3 Jan 2006 entre 1 et 10 ppm -, cette différence de concentration montre l’existence d’une zone de déplétion sous la surface anodique de 2 à 30 μm dans la limite de la profondeur analysée. De plus, un excès de sodium est visible dans une zone de 1 à 9,5 μm sous la surface cathodique. Ces deux observations peuvent être associées à la migration des ions Na+ vers la cathode sous l’effet du champ électrique appliqué. Les analyses SIMS ont montré que la déplétion semblait s’étendre au-delà de la région non linéaire dont l’épaisseur est d’environ 30 μm pour l’échantillon analysé. Il est à noter que l’analyse SIMS a été réalisée quatre mois après le traitement de polarisation et qu’une relaxation de la GSH est possible dans le verre. Par conséquent l’étalement de la déplétion pourrait être expliqué par la relaxation du phénomène. Afin de pouvoir déterminer avec précision la quantité d’ions Na+ ayant migré au cours du traitement de polarisation et afin de déterminer ainsi la valeur du champ électrique interne dans l’hypothèse d’une migration à porteur de charge unique, des nouvelles analyses SIMS vont être réalisées sur des échantillons polarisés 5 et 30 min à 170°C.
2.3.8. Interprétation des résultats
Nous avons pu mettre en évidence un phénomène de GSH dans les verres 2SG-10%Sb après un traitement de polarisation thermique. Comme dans le cas du verre 2S2G, nous r nous proposons d’expliquer ce phénomène par la création d’un champ électrostatique E DC sous la surface anodique. Le mécanisme de polarisation thermique dans le verre 2SG10%Sb semble très différent de celui mis en jeu lors de la polarisation des verres 2S2G et S2G-5%Ga. La mesure du courant total au cours du traitement thermique nous montre un comportement du matériau très similaire à celui observé lors de la polarisation des verres de silice (figure III.45.). 141
Chapitre III : Les verres de sulfures
10 10 8 Courant (μA) 8 6 4 6 2 0 4 0 20 40 tel-00011287, version 1 3 Jan 2006 80 100 Sortie du four Arrêt de la tension 2 0 60 Application de la tension 0 1000 2000 3000 Temps (s)
Figure III.45. : Courbe de courant total enregistré aux bornes d’échantillon de verre 2SG-10%Sb de 1 mm d’épaisseur au cours du traitement de polarisation (30 min, 270°C, 5 kV)
On observe une décroissance rapide du courant dès l’application de la tension, liée vraisemblablement à la migration rapide des ions Na+ vers la cathode. Après dix minutes de polarisation, l’intensité du courant se stabilise et peut être attribuée soit à la mesure des courants de surface, soit à la mesure d’un courant résiduel dans l’ensemble du matériau. Compte tenu de l’aspect très bruité de cet enregistrement, seule une analyse qualitative nous a semblé raisonnable. Dans un premier temps, nous nous proposons d’expliquer le mécanisme de GSH dans le verre 2SG-10%Sb comme reposant vraisemblablement sur le modèle de migration de charges à porteurs multiples développé par Kudlinski et al [25]. On peut supposer que sous l’effet du champ électrique extérieur, les impuretés mobiles telles les ions Na+ migrent rapidement vers la cathode laissant derrière elles une large zone déplétée chargée négativement. Il apparaît que le temps nécessaire à la création de la charge d’espace est de l’ordre de quelques minutes pour une polarisation à 170°C. Ainsi, pour des durées de polarisation de plus cinq minutes, l’amplitude de la susceptibilité non linéaire diminue et la région non linéaire s’étend plus profondément à l’intérieur de l’échantillon. L’existence d’un deuxième porteur de charges, par exemple les ions H+ ou K+ présents dans l’atmosphère ou à la surface du verre, pourrait expliquer ces deux phénomènes par la neutralisation progressive
142 Chapitre III : Les verres de sulfures de la région non linéaire
lors du
traitement de polar
isation. Cependant, contrairement aux résultats de Alley et al.[24], l’injection d’hydrogène dans le verre au cours du traitement de polarisation n’a pas pu être mise en évidence par l’analyse SIMS. L’accumulation de sodium sous la surface anodique pourrait alors éventuellement être à l’origine de la neutralisation de la zone déplétée dans ces deux premiers micromètres. L’éjection d’électrons peut également être envisagée afin d’expliquer ce mécanisme de neutralisation. L’augmentation de la durée de polarisation a pour conséquence d’élargir l’épaisseur de la couche non linéaire. Un effet similaire est observé lorsque la température augmente. La hausse de la température de polarisation a vraisemblablement pour effet d’augmenter la conductivité ionique. La zone déplétée en ions Na+ donc sera d’autant plus grande que la polarisation se fait à haute température. L’observation de cinq franges pour une température de polarisation de 310°C pourrait alors traduire la présence d’une non linéarité dans observation a récemment été reportée au sujet d’échantillons fins de verres de silice polarisés thermiquement par Quiquempois et al. [26]. Dans ces conditions et dans l’hypothèse d’une différence de potentiel nulle entre les deux surfaces, la distribution spatiale du champ électrique statique créé dans le verre 2SG-10%Sb après une polarisation à 310°C Cathode peut être décrit selon le schéma représenté dans la figure III.46.. Anode tel-00011287, version 1 3 Jan 2006 l’ensemble du volume de l’échantillon, c'est-à-dire sur une épaisseur de 1 mm. Une telle EDC 0 Profondeur sous l’anode
Figure III.46. : Schéma de la distribution spatiale du champ électrique après la polarisation d’un verre 2SG-10%Sb durant 30 min à 310°C
143
Chapitre III : Les verres de sulfures 2.4. Verre SG 2.4.1. Résultats préliminaires
Un premier essai de polarisation du verre SG nous a permis de mettre en évidence un comportement très similaire au comportement observé dans le cas de la polarisation thermique du verre 2SG-10%Sb. La mesure du courant total aux bornes de l’échantillon au cours du traitement de polarisation s’est montrée également semblable au comportement observé dans les verres de silice (figure III.47.) et nous a indiqué que la création d’une charge d’espace s’était probablement produite dès les premières minutes de polarisation. 20 20 16 Courant (μA) tel-00011287, version 1 3 Jan 2006 16 12 8 12 4 0 0 20 40 60 80 100 8 Sortie du four Arrêt de la tension 4 0 Application de la tension 0 1000 2000 3000 Temps (s)
Figure III.47. : Courbe de courant total enregistré aux bornes d’un échantillon de verre SG de 1 mm d’épaisseur au cours du traitement de polarisation (30 min, 270°C, 5 kV)
Comme dans le cas du verre 2SG-10%Sb, une décroissance rapide du courant quelques minutes après l’application de la tension, attribuée à la migration des ions Na+, est observée. La présence de surmodulations sur l’enregistrement des franges de Maker (figure III.48.) s’est également montrée très comparable aux résultats obtenus dans les verres 2SG10%Sb. Nous supposons que l’apparition de surmodulations est due à la présence d’une zone non linéaire située sous la surface anodique d’une épaisseur très supérieure à la longueur de cohérence du verre (Lc= 17,0 μm).
144 Chapitre III : Les verres de sulfures
0,7 Intensité SH (u. a.) 0,6 0,5 0,4 0,3 0,2 0,1 0,0 -80 -60 -40 -20 0 20 40 60 80
tel-00011287, version 1 3 Jan
2006
Angle externe (°) Figure III.48. : Enregistrement des franges de Maker pour un verre SG polarisé 30 min à 270°C sous 5 kV 2.4.2. Effet de la température
2.4.2.1
.
Conditions expérimentales
Une large gamme de températures de polarisation a été testée : de 140 à 310°C. Nous avons fixé les paramètres suivants : 9 durée de thermalisation : 1h30 9 temps de poling : 30 min L’intensité du champ appliqué a été fixée à 5 kV pour les polarisations réalisées de 310 à 200°C, à 4 kV pour les polarisations réalisées à 170 et 140°C
2.4.2.2. Franges de Maker
Les
résultats de l’enregistrement des frang
es
de
Maker
sont
donnés dans
la figure III.49..
145 Chapitre III : Les verres de sulfures
8 140°C 4 kV 6 Intensité SH (u. a.) Intensité SH (u. a.) 8 4 2 0 -80 -60 -40 -20 6 4 2 0 -80 0 170°C 4 kV -60 Angle d'incidence (°) Intensité SH (u. a.) Intensité SH (u. a.) -20 0 0,6 200°C 5 kV 2 1 0 -80 270°C 5 kV 0,4 0,2 0,0 -60 -40 -20 0 -60 Angle d'incidence (°) Intensité SH (u. a.) tel-00011287, version 1 3 Jan 2006 4 3 -40 Angle d'incidence (°) -30 0 Angle d'incidence (°) 310°C 5 kV 0,06 0,03 0,00 -60 -30 0
Angle d'incidence (°) Figure III.49. : Enregistrement des franges de Maker pour cinq échantillons de verre SG polarisés à différentes températures pendant 30min sous 4 ou 5kV
Nous avons décrit ici les premiers résultats de GSH après un traitement de polarisation thermique dans le verre SG. Au vu des premiers résultats que nous avons obtenus, nous 146
Chapitre III : Les
ver
res
de sulfures pouvons raisonnablement penser que l’origine de la non linéarité dans ce verre est identique à celle observée dans le verre 2SG-10%Sb. Le mécanisme repose donc vraisemblablement sur une migration d’entités positivement chargées vers la cathode au cours du traitement de polarisation thermique. De plus amples études, notamment une analyse SIMS en profondeur de la surface anodique, sont envisagées afin de confirmer cette hypothèse. La possibilité d’induire une susceptibilité non linéaire d’ordre deux dans des verres de chalcogénures a été montrée dans quatre systèmes vitreux. Nous avons pu observer deux mécanismes de polarisation thermique différents. Dans les cas des verres des systèmes GeS et Ge-Sb-S, nous avons observé un comportement des matériaux sous l’effet d’un champ électrique extérieur relativement proche du comportement des verres de silice. La migration d’ions mobiles comme les ions Na+ vers la cathode provoque la formation d’une zone tel-00011287, version 1 3 Jan 2006 déplétée chargée négativement sous la surface anodique. Un champ électrostatique est ainsi induit et peut alors donner naissance à une non linéarité d’ordre deux par interaction avec la susceptibilité d’ordre trois du matériau. Des mécanismes de neutralisation partielle par migration lente d’un deuxième porteur de charges (H+, K+) ou par éjection d’électrons liée à la formation de défauts sont envisagés afin d’expliquer l’élargissement de la région non linéaire ainsi que la baisse de la susceptibilité non linéaire d’ordre deux lorsque la température et/ou le temps de polarisation augmentent. Dans le cas des verres des systèmes Ge-Ga-S et Ge-Ga-Sb-S, un tout autre comportement est observé. Il est vraisemblable qu’au cours de la polarisation de ces deux verres, les électrodes ne soient plus bloquantes et que les matériaux deviennent alors conducteurs. La création d’une charge d’espace par migration des espèces ioniques est alors difficile et la zone non linéaire se crée sous la surface anodique par accumulation de charges négatives, probablement par accumulation d’électrons associés aux défauts chargés formés et piégés lors de la trempe de l’échantillon par une diminu brutale de la conductivité. Cette accumulation de charges négatives donne naissance à un champ électrostatique EDC, comparable à celui créé dans le cas des verres Ge(-Sb)-S. La différence de comportement entre les matériaux que nous avons étudiés est attribuée à leur conductivité électrique, directement reliée à la présence de gallium dans le verre. Les conductivités électriques à 170°C sont en effet d’environ 7x10-12 Ω-1.cm-1 pour le verre SG et 30x10-12 Ω-1.cm-1 pour le verre 2SG-10%Sb [27], alors qu’elle est de l’ordre de 10-9 Ω-1.cm-1 pour un verre Ge25Ga10S65 [28]. Le caractère « conducteur » des verres des systèmes GeGa(-Sb)-S rend sans doute inopérante la création d’une charge d’espace par migration ionique. Le mécanisme proposé pour expliquer la formation d’un champ électrostatique repose alors essentiellement sur un phénomène électronique, dont la relaxation sera
147 Chapitre III : Les verres
de sulfures beaucoup plus rapide que dans le cas d’une migration d’ions. La conductivité de nos matériaux que nous pouvons classer de la façon suivante : σ(SG)< σ(2SG-10%Sb)< σ(S2G-5%Ga)< σ(2S2G) est vraisemblablement également responsable de la stabilité des signaux SH au cours du temps. La circulation des électrons notamment provoquée par la photoexcitation du matériau favorise en effet les mécanismes de recombinaison des défauts chargés aboutissant à la neutralisation de la charge d’espace et provoquant la relaxation du phénomène. Une mesure plus précise de la conductivité électrique est en cours de réalisation dans le but de confirmer cette hypothèse. Finalement, l’énergie de la bande interdite reste également un paramètre critique pour la relaxation du phénomène de GSH dans les verres de chalcogénures. Les verres dont les tel-00011287, version 1 3 Jan 2006 longueurs d’onde de coupure sont déplacées vers les courtes longueurs d’onde présenteront a priori des signaux SH d’une meilleure stabilit temporelle. Le verre SG apparaît donc comme le candidat idéal à la GSH après un traitement de polarisation thermique. Cependant, sa synthèse est délicate et il est susceptible de cristalliser lors de sa mise en forme. Le verre 2SG-10%Sb apporte donc le meilleur compromis entre la valeur de la susceptibilité non linéaire, la stabilité du signal et la facilité de mise en forme en vue d’un développement de dispositif optique sous forme fibré. Dans le cas du développement d’un dispositif planaire, la composition SG reste la plus intéressante.
148 Chapitre III : Les verres de sulfures CONCLUSION
Après optimisation des conditions expérimentales, l’ensemble des verres de sulfures que nous avons étudiée dans le cadre de cette thèse présente des susceptibilités non linéaires d’ordre deux comprises entre 1 et 10 pm/V après un traitement de polarisation thermique. Une valeur de cette susceptibilité χ(2) maximale d’environ 10,4 pm/V a été mesurée dans un verre de chalcogénures du système Ge-Sb-S après le traitement de polarisation. Ces valeurs élevées de la susceptibilité non linéaire d’ordre deux, jamais mesurées auparavant dans un verre polarisé thermiquement, sont attribuées à la valeur importante de la susceptibilité d’ordre trois dans les verres de chalcogénures. Il est apparu que les meilleurs matériaux pour la GSH après un traitement de polarisation thermique devaient présenter la conductivité la plus faible possible et une longueur d’onde de coupure déplacée vers les courtes longueurs d’onde. La mise en forme de ces matériaux sous forme de fibre et de couche tel-00011287, version 1 3 Jan 2006 mince est possible et montre bien que ces verres sont adaptés pour des applications dans le domaine des télécommunications. Une étude structurale systématique de ces verres a été réalisée par spectroscopie de diffusion Raman. Cette étude a pu montrer que le réseau de ces matériaux essentiellement covalents était formé d’entités tétraédriques [GeS4] et/ou [GaS4] et/ou d’entités pyramidales [SbS3]. La structure ainsi décrite présente alors un fort caractère tridimensionnel. L’évolution des autres propriétés physiques comme la température de transition vitreuse ou le coefficient de dilatation en fonction de la nature de chaque verre est en bon accord avec cette analyse. Cependant, aucune relation directe entre la structure du matériau et sa réponse optique non linéaire n’a pu être clairement établie. Il apparaît alors que l’origine de la génération de second harmonique dans ces verres de sulfures soit associée à la présence d’impuretés chimiques et intimement liée à leur structure électronique. 149 tel-00011287, version 1 3 Jan 2006 Chapitre III : Les verres de sulfures tel-00011287, version 1 3 Jan 2006
BIBLIOGRAPHIE
[1] J. Troles, Thèse de l’Université de Rennes 1 (2002) [2] M. Frumar, H. Ticha, M. Bures, L. Koudelka, Z. Chem. 15 (1974) 199 [3] Z. Boncheva-Mladenova, Z.C. Ivanova, Proc. Intern. Conf. “Amorph. Semic. ‘78” (1978) 103 [4] Y. Guimont, Thèse de l’Université de Rennes 1 (1999) [5] J. Le Person, Thèse de l’Université de Rennes 1 (2004) [6] V. Nazabal, P. Nemec, J. Jedelsky, C. Duverger, J. Le Person, J.-L. Adam, M Frumar, SPIE, 5451 (2004) 543 [7] L. Koudelka, M. Frumar, M. Pisarcik, J. Non Cryst. Solids 41 (1980) 171 [8] C. Julien, S. Barnier, M Massot, N Chbani, X. Cai, A.M. Loireau-Lozach, M. Guittard, Mat. Sci. Eng. B 22 (1994) 191 [9] G. Fonteneau, Mater.Res. Bull. 19 (1984) 685 [10] G.E. Devyatykh, M.F. Churbanov, I.V. Scripachev, E.M. Dianov, V.G. Plotnichenko, Int. J. Optoelectron. 7 (1992) 237 [11] Y. Kawamoto, S. Tsuchihashi, J. Am. Ceram. Soc. 54 (1971) 113 [12] B. Bureau, J. Troles, M. Le Floch, P. Guenot, F. Smektala, J. Lucas, J. Non Cryst. Solids 319 (2003) 145 [13] A.T. Ward, J. Phys. Chem 72 (1968) 4133 [14] G. Luvosky, F.L. Galeener, R.C. Keezer, R.H. Geils, H.A. Six, Phys. Rev. B 10 (1974) 5134 [15] P. Boolchand, J Grosthaus, M. Tenhover, M.A. Hazle, R.K. Grasseli, Phys. Rev. B 33 (1986) 5421 [16] M.P. Fontana, B. Rosi, Z. Ivanova, N. Kirov, Philos. Mag. B 56 (1987) 507 [17] K. Tanaka, A. Narazaki, K. Hirao, Opt. Lett. 25 (2000) 251 [18] W. Margulis, F. Laurell, Opt. Lett. 21 (1996) 1786 [19] A. Kudlinski, Y. Quiquempois, M. Lelek, H. Zeghlache, G. Martinelli, Appl. Phys. Lett. 83 (2003) 3623 [20] N. Mukherjee, R.A. Myers, S.R.J. Brueck, J. Opt. Soc. Am. B 11 (1994) 665 [21] M.A. Popescu, Non Crystalline Chalcogenides ((Kluwer Academic Publisher) 2000 [22] F.C. Garcia, I.C.S. Carvalho, E. Hering, W. Margulis, B. Lesche, Appl. Phys. Lett. 72 (1998) 3252 [23] A. Kudlinski, Y. Quiquempois, M. Lelek, H. Zeghlache, G. Martinelli, Appl. Phys. Lett. 83 (2003) 3623 [24] T.G. Alley, S.R.J. Brueck, M. Wiedenbenck, J. App. Phys. 86 (1999) 6634 [25] A. Kudlinski, Y. Quiquempois, G. Martinelli, Opt. Lett. 30 (2005) 1039 [26] Y. Quiquempois, A. Kudlinski, G. Martinelli, J. Opt. Soc. Am. B 22 (2005) 598 [27] H. Ticha, L. Tichy, N. Rysava, A. Triska, J. Non Cryst. Solids 74 (1985) 37 [28] J. Kaluzny, D. Lezal, T. Kozik, M. Kubliha, E. Mariani, Ceram.-Silikaty 43 (1999) 107 150 tel-00011287, version 1 3 Jan 2006 tel-00011287, version 1 3 Jan 2006
CHAPITRE IV Les vitrocéramiques tel-00011287, version 1 3 Jan 2006 Chapitre IV : Les vitrocéramiques INTRODUCTION
Les vitrocéramiques sont définies comme des matériaux vitreux présentant des particules cristallisées de taille nanoou micrométrique. L’introduction ou la génération d’une phase cristalline dans une matrice vitreuse peut alors exalter des propriétés déjà existantes dans le verre, des propriétés optiques par exemple, ou bien peut donner naissance à des caractéristiques propres aux cristaux. Récemment, l’attention s’est essentiellement portée sur les vitrocéramiques transparentes dans le but de les utiliser les dispositifs optiques. Plus particulièrement, la possibilité d’induire des propriétés optiques non linéaires du deuxième ordre a été montrée dans de nombreuses vitrocéramiques présentant des cristaux non linéaires. Kao et al. ont montré pour la première fois qu’il était possible de contrôler la cristallisation d’un verre du système BaO-B2O3 et de précipiter des particules du composé β- tel-00011287, version 1 3 Jan 2006 BaB2O4 nanométriques fortement non linéaires [1]. Les vitrocéramiques à base de chalcogénures présentent un intérêt certain compte tenu de l’aspect transitoire de la non linéarité du second ordre dans les verres après un traitement de polarisation thermique. En effet, les propriétés optiques non linéaires peuvent exister intrinsèquement par la présence de particules non linéaires dans la matrice vitreuse et par conséquent sont permanentes. Très récemment, la possibilité de fabriquer des vitrocéramiques à base de chalcogénures par traitement thermique a déjà été montrée à partir d’un verre du système Ge-Sb-S. L’introduction de 10% molaire de chlorure de césium (CsCl) a en effet permis de synthétiser des vitrocéramiques transparentes présentant une cristallisation volumique de particules d’une taille de l’ordre de 100 nm [2]. Nous avons choisi d’introduire du cadmium dans le verre Ge25Sb10S65 dans le but d’y précipiter des particules de sulfure de cadmium (CdS), fortement non linéaires (χ333(2)= 88 pm/V [3]). La précipitation de particules de CdS sans orientation préférentielle par traitement thermique a déjà été réalisées dans des verres d’oxydes et des signaux de second harmonique (SH) ont pu être enregistrés (I2ω/I2ω(quartz)= 0,015 [4]). De plus, la possibilité ’introduire une large quantité de cadmium dans les verres de chalcogénures – jusqu’à 30% molaire a été montrée par plusieurs équipes dans les verres du système GeS2-Ga2S3-CdS [5,6] et du système GeS2-Ga2S3-CdCl2 [7]. 151 tel-00011287, version 1 3 Jan 2006 tel-00011287, version 1 3 Jan 2006
PARTIE A Vitrocéramiques à base de Ge-Sb-S tel-00011287, version 1 3 Jan 2006 Chapitre IV : Les vitrocéramiques 1. Optimisation et caractérisation du verre de base 1.1. Synthèse du verre de base 1.1.1. Optimisation de la composition du verre de base
La matrice vitreuse choisie pour générer la croissance de cristaux est le système ternaire Ge-Sb-S, déjà décrit dans le chapitre III. Plus particulièrement, la composition Ge25Sb10S65 – que nous appellerons « 2SG-10%Sb » par la suite en accord avec le chapitre III a été choisie comme matrice d’accueil pour sa stabilité vis-à-vis de la cristallisation. Les premiers essais de synthèse du verre de base nous ont montré qu’il n’était pas possible d’introduire plus de 1% molaire de cadmium dans le verre 2SG-10%Sb. Au-delà de ce pourcentage, une cristallisation incontrôlable est observée lors de la trempe. Une telle différence par rapport aux valeurs reportées dans la littérature peut s’expliquer de deux manières. Tout d’abord tel-00011287, version 1 3 Jan 2006 l’application potentielle de nos matériaux étant leur utilisation dans des dispositifs optiques, notre premier objectif était de synthétiser un verre de base massif de plusieurs dizaines de grammes. Les conditions de synthèse, notamment la masse du mélange ainsi que la nature de la trempe (air, eau, eau glacée) peuvent en partie expliquer cette différence notable. De plus, la nature de la matrice vitreuse d’accueil Ge-Sb-S pourrait également être responsable de cette mauvaise stabilité thermique comparativement à la matrice Ge-Ga-S. La synthèse du verre 90GeS2-5Ga2S3-5CdS dans les mêmes conditions a cependant entraîné une cristallisation incontrôlée du bain lors de la trempe. Nous avons choisi le verre 2SG-10%Sb comme matrice d’accueil. Cette composition a été optimisée dans le but d’obtenir un dopage maximal de cadmium. Plusieurs compositions proches de la composition 2SG-10%Sb ont ainsi été synthétisées et la composition Ge23Sb11S65Cd1 a été choisie pour sa stabilité thermique (absence de particules diffusantes avant le processus de céramisation) et pour sa longueur d’onde de coupure la plus courte possible (tableau IV.1.).
Ge25Sb7S67Cd1 Présence de particules diffusantes Ge23Sb9S67Cd1 Oui Oui λc (nm) Ge25Sb11S63Cd1 Ge23Sb11S65Cd1 Non Non
535 615
Tableau IV.1. : Caractéristiques thermique et optique de quatre verres du système Ge-Sb-S-Cd
1.1.2. Synthèse du verre du système Ge-Sb-S
La fabrication de vitrocéramiques nécessite un verre de base de grande pureté afin d’éviter une nucléation hétérogène. La synthèse s’est donc faite en plusieurs étapes. Le verre du 152 Chapitre IV : Les vitrocéramiques système Ge-Sb-S a été synthétisé à partir d’éléments de haute pureté (99,999%). Comme dans le cas de la synthèse de verres de chalco-halogénures et de sulfures étudiés dans les chapitres II et III, le soufre commercial a été séché avant synthèse par chauffage à 125°C sous vide dynamique pendant douze heures. Le germanium a été cassé juste avant la synthèse afin de limiter l’oxydation de sa surface. L’antimoine n’a subi quant à lui aucune purification supplémentaire. Malgré les précautions prises lors de la synthèse et la pureté des éléments de départ, le germanium et l’antimoine peuvent présenter une légère oxydation de surface. Quelques grains de magnésium ont alors été ajoutés au mélange afin de capter l’oxygène éventuellement présent dans les produits de départ. Le magnésium, ajouté aux réactifs lors de la synthèse du verre Ge23,2Sb11,1S65,7, peut réagir avec l’oxygène pour former le composé MgO. Cet oxyde est ensuite éliminé lors de la distillation du verre. Notons que les grains ont tel-00011287, version 1 3 Jan 2006 été préalablement trempés quelques secondes dans un mélange d’acide chlorhydrique et acide nitrique dilué puis rincés à l’éthanol absolu. Cette étape permet d’éliminer la surface oxydée du magnésium et permet d’améliorer son pouvoir de capteur d’oxygène. Les réactifs (Ge, Sb, S et Mg) sont alors introduits ensemble dans un tube réactionnel de silice droit. Le verre Ge23,2Sb11,1S65,7 a finalement été obtenu par fusion et homogénéisation des produits de départ à 850°C. Un barreau de verre de 150 g de verre peut être obtenu en refroidissant le tube réactionnel de silice à l’air comprimé de 850 à 20°C.
1.1.3. Addition de cadmium et purification du verre de base
Le cadmium est ajouté au verre précédemment synthétisé afin d’obtenir la composition Ge23Sb11S65Cd1. Un montage à deux filtres (figure IV.1.) permettant deux distillations successives a été utilisé : l’un des filtres est utilisé pour la distillation du verre Ge23,2Sb11,1S65,7, l’autre pour la distillation du cadmium. Une distillation unique verre Ge23Sb11S65Cd1 n’est pas possible car il se forme dans le filtre des composés très stables tels que les composés CdS ou Cd4GeS6. Les tensions de vapeur de ces produits sont alors trop faibles à nos températures de travail pour permettre leur distillation. Après l’introduction du cadmium et du verre Ge23,2Sb11,1S65,7 respectivement dans les filtres 1 et 2, le montage de silice est pompé sous vide (10-5 mBar) pendant quatre heures. La partie « filtrestube réactionnel » est finalement isolée en scellant le montage aux niveaux « 1 » et « 2 ». Le cadmium est distillé après une heure à 600°C. Ceci permet d’éliminer les oxydes CdO1-x moins volatiles que le métal lui-même. A cette température, la pression de vapeur du cadmium est en effet d’environ 100 mBar alors que celle de son oxyde CdO est inférieure à 10-3 mBar. Le filtre 1 est introduit dans la zone chaude du four de distillation, le tube 153 Chapitre IV : Les vitrocéramiques réactionnel et le filtre 2 dans la partie froide. Le cadmium se dépose sur les parois du tube de silice alors que les oxydes sont piégés dans le filtre 1. Le tube réactionnel est scellé au niveau « 3 » après cette première distillation.
| 37,059
|
43/hal.archives-ouvertes.fr-hal-01852070-document.txt_1
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 4,303
| 6,552
|
GUILLON1,2, Élise VAREILLES1, Michel ALDANONDO1, Eric VILLENEUVE2 et Christophe MERLO2 1 Université de Toulouse, IMT Mines Albi Campus Jarlard 81013 Albi cedex 09 - France [email protected] 2 ESTIA Recherche 92, allée Théodore Monod 64210 Bidart - France [email protected]
RÉSUM : En réponse à appel d'offres, de nombreuses entreprises proposent des services. Dans cet article, nous nous intéressons à la question suivante : Comment modéliser les services industriels pour pouvoir les élaborer facilement lors d'une réponse à appel d'offres? Un modèle de configuration d'offres-produit est présenté, puis une réflexion sur l'extension de ce modèle aux offres-service est menée. Suite à une étude de la littérature pour définir les services et identifier leurs caractéristiques, impact de ces caractéristiques le it est analysé. De nouvelles caractéristiques sont également introduites. Ce travail doit permettre de proposer une typologie qui servira de base à l'adaptation du modèle d'offres-produit aux services.
MOTS-CLÉS : services industriels, réponse à appel d'offres, modélisation, caractérisation de services
1 INTRODUCTION En réponse à appel d'offres, les soumissionnaires doivent faire face à un environnement de plus en plus complexe. Les concurrents sont nombreux et les clients exigeants. Pour augmenter leurs chiffres d'affaires et rester compétitives, les entreprises soumissionnaires doivent proposer des offres à la fois conformes aux exigences clients, attractives (en termes de solution proposée, coût et délai), et réalisables (en termes de processus de réalisation, ressources allouées et risques encourus). Face à ce constat, le projet OPERA 1 vise à proposer aux soumissionnaires un outil d'aide à la définition d'offres exploitant leurs connaissances et bonnes pratiques. La diversité des services industriels est très vaste, ce qui pourrait impliquer une typologie de services associée à une typologie de modèles génériques. Dans cet article, nous proposons d'identifier et discuter les caractéristiques permettant de mettre en place une telle typologie de services. Nos travaux étant liés au projet OPERA, cet article s'intéressera uniquement aux services business-tobusiness (B2B) dans un cadre industriel. Ces services recouvrent, entre autres, les services suivants : études de calculs thermiques, conseil en organisation, formation, développement de site internet, paramétrage logiciel, maintenance et location d'équipements industriels. L'édition logiciel est hors périmètre car le logiciel est considéré comme un produit. La suite de cet article est structurée de la façon suivante. La deuxième section présente le modèle générique d'offres-produit que nous souhaitons étendre aux offres-service. La troisième section est consacrée à une revue de littérature sur la définition et la description de services. La quatrième section introduit les préalables à un modèle d'offres-service. La dernière section est consacrée à l'étude de caractéristiques des services issues de la littérature et présente de nouvelles caractéristiques, permettant de poser les bases d'une typologie de services.
2 MODÈLE PRODUIT GÉNÉRIQUE D'OFFRES-
Cette section introduit le modèle générique de configuration d'offres-produit que nous souhaitons étendre aux offres-service. Configuration. Le soumissionnaire doit choisir, parmi un ensemble de composants connus, caractérisés et chiffrés, ceux qui correspondent aux besoins client (Mittal et Frayman 1989). produit et le processus de réalisation permettront de comparer différentes offres. Il peut s'agir d'indicateurs financiers (coût, prix, marge), d'indicateurs de délai, de charge et/ou de durée, mais aussi d'indicateurs de confiance (Sylla et al. 2017).
(1)
Contexte. Quatre types de données caractérisent le contexte de l'offre. Elles caractérisent : - le client (a-t-on déjà travaillé avec lui? est-il stratégique?), - l'affaire (est-ce un marché public ou privé?), - le soumissionnaire (a-t-on un carnet de commande rempli? l'atelier est-il chargé?), - l'environnement extérieur (est-ce qu'un concurrent important est présent sur le marché
?).
(2) Produit. Pour décrire un produit, le soumissionnaire a le choix entre deux approches : une description fonctionnelle des besoins, attentes et fonctions ou une description hiérarchique des composants. Nous proposons que le soumissionnaire configure la nomenclature du produit (Aldanondo et Vareilles 2008). (3) Processus de réalisation. Que le soumissionnaire ait choisi une description fonctionnelle ou bien une description hiérarchique des composants, il est important de définir le processus de réalisation, décrit comme un ensemble d'opérations à réaliser pour produire et livrer le produit (Pitiot et al. 2014). Dans (Aldanondo et Vareilles 2008), les auteurs proposent également une configuration concourante produit / processus. Dans le cadre du projet OPERA, la configuration du processus de réalisation s'appuie sur un processus générique constitué des opérations suivantes : études, approvisionnement, fabrication et livraison. Le processus de réalisation n'est pas défini de façon très détaillée car l'étude se fait en avant-vente et ne requiert donc pas d'approfondir ce point. L'objectif, lors de la définition du processus de réalisation en réponse à appel d'offres, est d'identifier les activités clefs pour évaluer les coûts liés au processus, fournir une date de livraison pertinente, et identifier les risques-projet clefs. Dans nos travaux (Guillon et al. 2017), le modèle d'offres-produit sera exploité avec une approche de type problèmes de satisfaction de contraintes (CSP) (Montanari 1974). Figure 1 – Modèle d'offres-produit
Dans (Guillon et al. 2017), un premier modèle de configuration d'offres-produit, illustré par la figure 1, a été proposé. Pour élaborer une offre pertinente et faire du retour d'expérience sur les cas similaires, le soumissionnaire doit caractériser (1) le contexte de l'offre, (2) la nomenclature du produit et (3) le processus de réalisation du produit. Des indicateurs caractérisant le Cette section a donc permis d'introduire le modèle générique d'offres-produit. Nous explorerons à présent la possibilité d'étendre ce modèle générique à tout ou partie des offres-service.
3 DÉFINITIONS ET D'UN SERVICE DESCRIPTIONS
Au cours de ces dernières années, le secteur tertiaire a pris de plus en plus d'ampleur : l'économie globale est passée d'une vision orientée produits à une vision Delphine Guillon, Elise Vareilles, Michel Aldanondo, Eric Villeneuve et Christophe Merlo orientée service, et dans la plupart des pays développés la majorité des revenus provient des services (Chae 2012). Aujourd'hui, l'essor des services est tel que les entreprises du secteur tertiaire répondent de plus en plus à des appels d'offres. Cette section est donc consacrée aux travaux existants sur la définition et la description de services. Tout d'abord, nous définissons ce qu'est un service, pour dans un deuxième temps présenter les travaux existants sur la description de services.
3.1 Définitions d'un service
Plusieurs auteurs ont défini les services dans la littérature. Nous en présentons quelques-uns ci-après. Le service comme un processus. Pour Grönroos, un service est un processus constitué de plusieurs activités plus ou moins intangibles, qui souvent résultent d'interactions entre le client et les employés et/ou des ressources physiques et/ou des biens et/ou des systèmes du fournisseur de service, et qui sont fourni comme solutions aux problèmes du client. Il propose, plutôt que d'essayer de définir ce qu'est un service, de définir les caractéristiques d'un service. L'une des trois caractéristiques fondamentales de la majorité des services est qu'ils sont des processus constitués d'activités ou de séries d'activités plutôt que de composants (Grönroos 2000). Il définit un service comme un processus, par opposition au produit qui est a thing. Pour (Carlborg et Kindström 2014) également, un service est souvent défini comme un processus. Le service comme une capacité. L'INSEE définit un service de la façon suivante : « Une activité de service se caractérise essentiellement par la mise à disposition d'une capacité technique ou intellectuelle. A la différence d'une activité industrielle, elle ne peut pas être décrite par les seules caractéristiques d'un bien tangible acquis par le client. » (INSEE 2017)
Dimensions d'un service
Dans (Bullinger et al. 2003), un service est caractérisé par trois dimensions différentes : (1) une dimension structure, qui détermine la capacité et la volonté de fournir le service en question, (2) une dimension processus, et (3) une dimension résultat, qui comprend une définition du contenu du service et un plan structuré des services. Ces définitions font ressortir des aspects intéressants et variés dans la définition de service, sur lesquels nous nous appuierons par la suite.
3.2 Descriptions d'un service
L'intérêt de la configuration de services est le même que pour la configuration de produits : trouver l'équilibre entre la personnalisation pour répondre aux besoins variés des clients, et les bénéfices de la standar- 135 disation (Felfernig et al. 2014). L'intérêt de la configuration de masse appliquée aux services a également été discuté (Heiskala et al. 2005). Après avoir listé les avantages et défis liés à la configuration de masse pour les services, ils concluent que les avantages sont les mêmes que pour les produits. Pourtant, les résultats sur la customisation de masse pour les biens ne sont peut être pas directement applicables aux services (Felfernig et al. 2014). Gérer à la fois customisation et standardisation pour les entreprises de service est donc réellement un défi (Løkkegaard et al. 2016). Cette section a donc pour objectif d'explorer ce problème à partir d'une revue de la littérature. Décomposition d'un service en éléments. Plusieurs auteurs traitent de la décomposition d'un service en éléments. « Un service est une combinaison d'éléments physiques et non physiques, intégrés selon des configurations spécifiques à chaque client » (traduit de l'anglais) (Carlborg et Kindström 2014). Dans ( stein et al. 2002), les auteurs expliquent que, « du point de vue du fournisseur de services, concevoir un service signifie définir une combinaison appropriée de composants physiques et non physiques ». Ils précisent que « les composants d'un service sont souvent des éléments non physiques, mais plutôt une combinaison de processus, compétences humaines et matériels » (traduit de l'anglais). Dans (Ki Moon et al. 2009), la notion de familles de services est explorée. Ils proposent d'étendre les méthodes utilisées sur les familles de produits aux familles de services. Une famille de services est définie comme un ensemble de services basés sur un ensemble de processus, activités, objets et caractéristiques communes. Pour délivrer un service, un ensemble de modules de services, eux-même composés d'un ensemble de composants de services, seront « assemblés ». Dans (Bullinger et al. 2003), les auteurs conseillent, pour la dimension résultat d'un service, si celui-ci est complexe, de le diviser en services partiels. De plus, il serait alors préférable que ces services soient structurés de façon modulaire. Modularité des services. Dans (Løkkegaard et al. 2016), l'intérêt des services modulaires, qui ont les mêmes avantages que les produits modulaires, est mis en avant. Dans (Böttcher et Klingner 2011), les auteurs proposent une méthode pour décomposer un service B2B en modules, et définissent un module de service de la façon suivante (traduit de l'anglais) : « Un service module offre une fonctionnalité bien définie via des interfaces décrites précisément. Un service module peut être utilisé pour décomposer et peut donc être lui-même une partie d'un service module de plus haut niveau. » Cette définition est très proche de celle des composants pour un produit. Ils ajoutent : « Cette 12e Conférence Internationale de Modélisation, Optimisation et Simulation – MOSIM 2018 27-29 Juin 2018 – Toulouse, France « L'essor des systèmes connectés dans l'industrie et les services » 136 Caractérisation de services industriels en réponse à appels d'offres MOSIM'18 - 27 au 29 juin 2018 - Toulouse - France décomposition permet une configuration spécifique pour un client donné, car le client peut assembler une offre de service à partir d'un ensemble de modules de services donnés. » Cette définition est similaire à ce qui se fait en configuration de produits, où un client peut assembler son produit à partir d'un ensemble de ants donnés. Cependant, ce modèle n'est pas directement applicable à notre cas d'étude. Nous ne cherchons pas exactement à modulariser des services, mais plutôt à les modéliser, qu'ils soient modulaires ou non. Nous ne voulons pas modifier des services existants pour les faire rentrer dans un modèle de « nomenclature de services », mais plutôt trouver un modèle pour les services existant. Un produit, modulaire ou non, peut être décomposé en composants, liés entre eux par une architecture, appelée nomenclature. Nous cherchons à identifier si l'on peut faire de même pour les services. Les approches processus, éléments et modulaires laissent supposer qu'un service pourrait être représenté par une structure arborescente.
4 PRÉALABLES À D'OFFRES-SERVICE UN MODÈLE
En réponse à appel d'offres, le travail porte essentiellement sur le chiffrage des livrables, puis, dans certains cas, sur l'identification des charges et l'estimation d'un délai de livraison. Pour une offre-produit, le soumissionnaire cherche principalement à chiffrer ce produit, d'où la définition d'une nomenclature. De plus, les choix techniques faits sur les composants pourront intéresser le client. Pour une offre-service, le soumissionnaire chiffre principalement un processus, et non plus les composants d'un produit. Les ressources employées sur le processus de réalisation sont valorisées : ressources essentiellement humaines, mais aussi matérielles dans certains cas. Les achats et coûts liés à un déplacement sont des coûts liés au processus de réalisation. Contrairement à un produit où les coûts liés aux matières premières et aux composants sont importants, pour les services ceux-ci sont souvent nuls, (excepté pour la maintenance, où des composants physiques sont alors achetés pour le client). De plus, la structuration de l'offre dépend souvent de la demande de chiffrage du client, contrairement aux produits où la nomenclature est intrinsèque à la famille du produit et indépendante du client. Pour des services, la structuration des lots de travail pourra donc être très différente d'un client à l'autre, pour un travail assez similaire. L'application à un service du modèle d'offre-produit présenté dans la figure 1 soulève plusieurs questions.
(1)
Context
e
. Tout d'abord, la partie contexte de l'offre reste inchangée. Que ce soit pour un produit ou un service, le soumissionnaire doit caractériser le contexte pour choisir l'offre la plus pertinente à proposer au client. (2) Produit ou Service. Ensuite, la partie décrivant le produit proposé par le soumissionnaire est difficilement transférable à un service. En effet, comme évoqué précédemment, l'existence même d'une nomenclature de service est questionnée. Nous avons vu dans la section 3.1 que certains auteurs définissent un service comme un processus. Cela signifierait que, pour élaborer un service, le soumissionnaire peut se contenter d'élaborer le processus de réalisation. Dans le modèle d'offres-produit, cela signifierait que la partie (2) produit du modèle serait supprimée et que rien ne la remplacerait (car même pour un produit nous définissons le processus de réalisation dès l'avantvente), ou que cette partie serait remplacée par un WBS (Work Breakdown Structure), comme en projet. Delphine Guillon, Elise Vareilles, Michel Aldanondo, Eric Villeneuve et Christophe Merlo Bien que ces caractéristiques se retrouvent beaucoup dans la littérature, elles ont aussi été critiquées au cours des dernières années (Edvardsson et al. 2005, Lovelock et Gummesson 2004). En effet, il semble que les caractéristiques IHIP ne puissent pas s'appliquer à tous les types de services. Nous détaillerons ces critiques dans la section suivante. Dans (Lovelock et Gummesson 2004), les auteurs proposent donc soit (1) d'abandonner la distinction produit/service et d'arrêter de les déclarer comme deux domaines différents, (2) de trouver un nouveau paradigme pour définir les services, (3) de travailler sur des typologies de services. L'option (1) n'est pas applicable en configuration. En effet, comme cela a été évoqué précédemment, il est impossible de traiter produits et services de manière identique car nous ne pouvons définir tous les services avec une nomenclature physique. L'option (2) est celle conservée par Lovelock et Gummesson. Ils proposent de définir un service par l'absence de transfert de propriété. Cette caractéristique et son possible impact sur notre modèle seront discutés dans la section suivante. Enfin, l'option (3) semble convenir le mieux à la configuration de services. En effet, la diversité de services étant très vaste, nous pensons pouvoir définir une typologie de services, avec pour chaque type de service un modèle générique d'élaboration d'offres. Nous proposons donc de discuter des caractéristiques permettant d'établir une telle typologie de services. Les caractéristiques IHIP et l'absence de transfert de propriété seront discutées dans la section 5.1, pour identifier si non seulement elles permettent de distinguer un produit d'un service, mais aussi si elles permettent de distinguer différents types de services. Puis nous proposerons de nouvelles caractéristiques dans la section 5.2.
5.1 Caractéristiques d'un service
de la littérature Dans cette sous-section, nous présentons chacune des quatre caractéristiques IHIP, ainsi que la caractéristique d'absence de transfert de propriété, nous discutons de leurs limites, puis nous questionnons leurs impacts sur le modèle d'offres.
5.1.1 Intangibilité
Définition de la caractéristique et discussion. L'intangibilité est la première caractéristique d'un service, la plus citée mais surtout la plus critique et celle dont découle toutes les autres (Bateson 1979). Cette intangibilité est définie à l'origine par opposition aux produits qui sont, eux, tangibles, c'est à dire palpables et matériels (Shostack 1977). En effet, une prestation intellectuelle est intangible. La définition de l'INSEE dans la sous-section 3.1 souligne cette intangibilité. Bateson et Bery distinguent l'intangibilité physique 137 et l'intangibilité mentale (Bateson 1979, Berry 1980). L'intangibilité physique désigne l'incapacité des cinq sens à saisir un service, alors que l'intangibilité mentale désigne la difficulté de se faire une représentation mentale du service. Dans (Bielen et Sempels 2004), les auteurs proposent une échelle de mesure bidimensionnelle du concept d'intangibilité, basée sur ces deux intangibilités. L'applicabilité de cette caractéristique à l'ensemble des services peut être questionnée. En effet, si nous nous intéressons au livrable comme valeur ajoutée de la prestation de service, l'intangibilité n'est pas toujours si évidente. Par exemple, pour une étude de calcul ou un audit en organisation, le livrable est un rapport écrit, bien tangible. Pour une formation au contraire, on peut considérer que le livrable est la connaissance acquise par les personnes formées, un savoir-faire complètement intangible. Le concept d'intangibilité ne semble donc pas toujours entièrement applicable. Impact sur le modèle générique d'offres. Cette caractéristique est essentielle car c'est elle qui remet en question la partie clef de configuration d'offresproduit : la nomenclature. Si lors d'une réponse à appel d'offres pour un produit, le soumissionnaire doit toujours décrire les caractéristiques d'un bien tangible et identifier les composants d'une nomenclature physique, les descripteurs d'un service en réponse à appel d'offres restent à identifier. De plus, cette intangibilité « entraîne une difficulté pour le consommateur à évaluer l'offre et ses caractéristiques (attributs, prix, qualité) » (Bielen et Sempels 2004). Elle entraîne également pour le soumissionnaire une difficulté à mettre un prix sur un service. Malgré tout, si un service est décomposé en activités comme dans un WBS ou en élé suivant une décomposition par lots, une nomenclature intangible et non plus physique pourrait être présente. Par contre, cette caractéristique d'intangibilité est importante pour différencier différents types de services et aboutir à une typologie.
5.1.2 Hétérogénéité Définition et Discussion.
L'hétérogénéité concerne le potentiel de haute variabilité dans la performance des services. L'hétérogénéité d'un service est due aux ressources humaines, par opposition à la répétabilité d'une machine. La qualité et l'essence d'un service peut varier d'un intervenant à l'autre et d'un client à l'autre. La performance d'un service pour un même intervenant peut elle aussi varier d'un jour à l'autre. Cette caractéristique entraîne donc une difficulté de standardisation (Zeithaml et al. 1985). L'hétérogénéité s'applique bien aux prestations de conseil en organisation ou de formation. Par exemple, une prestation de formation est fortement liée à l'in- 12e Conférence Internationale de Modélisation, Optimisation et Simulation – MOSIM 2018 27-29 Juin 2018 – Toulouse, France « L'essor des systèmes connectés dans l'industrie et les services » 138 Caractérisation de services industriels en réponse à appels d'offres MOSIM'18 - 27 au 29 juin 2018 - Toulouse - France tervenant et son état d'esprit lors du déroulement des activités. Cependant, pour une étude de calcul, si la qualité de rédaction du rapport dépend de l'ingénieur, les résultats des calculs, eux, sont indépendants de la personne qui les réalise. Impact sur le modèle. Cette caractéristique a un fort impact sur la qualité du service délivré, mais n'a pas d'impact sur le modèle générique d'offres.
5.1.3 Non séparabilité
Définition et discussion. La caractéristique de non séparabilité à plusieurs facettes, toutes liées mais avec quelques nuances. Tout d'abord, par définition, cela signifie que la production et la consommation du service sont simultanées (Parasuraman et al. 1985, Edvardsson et al. 2005, Lovelock et Gummesson 2004). Dans (Grönroos 2000), la majeure partie des services ont trois caractéristiques de base : - La première a été citée dans la section 3.1 : le service défini comme un processus. - La deuxième est celle qui vient d'être citée : les services sont au moins dans une certaine mesure produits et consommés simultanément. - Enfin, la troisième est la suivante : le client participe au processus de production du service, au moins dans une certaine mesure. Cette implication du client dans le processus de réalisation (en formation par exemple) découle de la non séparabilité (Heiskala et al. 2005). Grönroos ajoute que la valeur ajoutée d'un service est le résultat des s client-fournisseur, par opposition au produit, où la valeur ajoutée est créée au sein de l'usine. Selon lui, (traduit de l'anglais) « pour les services, les interactions entre le client et le fournisseur sont souvent présentes et d'importance, bien que les parties impliquées n'en soient pas toujours conscientes » (Grönroos 2000). Dans le cas d'une offre-service portant sur une étude de calcul, celle-ci est d'abord produite par le fournisseur, chez le fournisseur, puis transmise au client, qui pourra alors la « consommer », l'exploiter. Le client ne participe pas au processus de réalisation. Il est impliqué uniquement au début et à la fin, comme pour un produit. Impact sur le modèle. Cette caractéristique ne modifie pas intrinsèquement le modèle d'offres. Dans la partie (3) Processus de réalisation de celui-ci, des activités impliquant le client pourront apparaître.
5.1.4 Périssabilité
Définition et discussion. La périssabilité signifie que les services ne peuvent être conservés. Si la ressource n'est pas utilisée à un instant t, elle ne pourra pas être récupérée, utilisée plus tard. Un service a une consommation immédiate, contrairement à certains produits qui ont une durée de vie de plusieurs années après livraison. Ils ont une durée éphémère et ne peuvent être stockés. Un service de location par exemple, n'est pas pérenne car le client ne jouit du service que pendant une durée limitée, contrairement à l'achat d'un produit, où le client jouit de la pérennité du bien. Les entreprises de services ont donc souvent une problématique de synchronisation de la demande client et de leurs capacités (Zeithaml et al. 1985). Si l'on s'intéresse au livrable de l'étude de calcul précédente, celui-ci (le rapport d'étude) peut être stocké chez le client, et réutilisé par celui-ci quand il en aura besoin. De même, dans le cas d'une formation en ligne, comme un MOOC, celui-ci pourra être « stocké » puis réutilisé ultérieurement. Ces services ne semblent donc pas périssables. Impact sur le modèle. Cette caractéristique n'a pas d'impact sur le modèle d'offres. 5.1.5 Dé
finition
et
discussion
. Lovelock et Gummesson proposent de caractériser le service par l'absence de transfert de propriété (Lovelock et Gummesson 2004). Impact sur le modèle. Cette caractéristique n'a aucun impact sur le modèle d'offres. Seule l'intangibilité a un impact sur le modèle générique d' laboration d'offres et sera conservée comme critère pour établir une typologie de services. Les caractéristiques d'hétérogénéité, de non séparabilité, de périssabilité et d'absence de transfert de propriété n'ont pas d'impact sur le modèle d'offres. Cependant, d'autres caractéristiques peuvent permettre de différencier des services. Nous en proposons dans la section suivante.
5.2 5.2.1 Identification de nouvelles caractéristiques Obligation de moyens / de résultats
Définition et discussion. Les exigences du client peuvent porter uniquement sur le résultat final du processus de réalisation (le livrable), ou bien également Delphine Guillon, Elise Vareilles, Michel Aldanondo, Eric Villeneuve et Christophe Merlo sur le déroulement du processus de réalisation. Dans le premier cas (obligation de résultat), on se rapproche de l'attente du client dans le cas de certains produits. Peu importe comment celui-ci a été fabriqué et assemblé, l'attente première du client porte sur le produit luimême. C'est le cas, par exemple, des études de calculs. Peu importe pour le client que l'étude ait été faite dans un pays ou un autre, il se focalise sur le fait que les calculs soient réalisés et que le rapport soit clair et exploitable. Dans le deuxième cas (obligation de moyens), le client est intéressé par le déroulement du processus de réalisation lui-même. Par exemple, pour une formation, la durée, le lieu de la formation et les qualifications de l'intervenant sont autant de critères qui vont intéresser le client potentiel. Mais le client pourrait aussi n'être intéressé que par le résultat : un diplôme qu'il souhaite acquérir. Impact sur le modèle. Si le client est intéressé par le déroulement du processus, celui-ci sera mieux défini. En effet, alors que dans le premier cas, le processus est défini uniquement pour le fournisseur, dans le deuxième cas, une attention plus particulière doit être portée aux points du processus qui intéressent le client. Notre modèle d'offre-services devra être capable de modéliser une offre selon ces deux points de vue.
5.2.2 Définition et discussion.
L'aspect déroulement d'un service est important. Le service peut se dérouler une seule fois, de façon unitaire, ou de façon itérative. Par exemple, le client pourra passer un appel d'offre pour une unique étude de calcul sur une pièce donnée, ou bien pour avoir à sa disposition un pool d'ingénieurs ayant les compétences pour faire autant d'études de calcul que nécessaire pendant une durée donnée. Dans le cas de la maintenance, le processus est également itératif. Impact sur le modèle. Cette caractéristique peut avoir deux sortes d'impacts sur modèle générique d'offres. Elle peut impacter la partie (3) Processus de réalisation, car celui-ci pourra être plus complexe, avec plusieurs processus par exemple, ou un processus qui est répété plusieurs fois. Cette caractéristique peut aussi impacter le partie (2) Service de l'offre car des éléments sur les ressources mises à disposition du client, de façon générale et indépendamment d'une partie précise du processus de réalisation, pourront être nécessaires.
5.2.3 Incertitude
Dé
finition
et
discussion
. Le soumissionnaire peut s'engager sur des services plus ou moins incertains. Cette incertitude peut se situer sur trois niveaux. Il peut s'agir d'incertitude temporelle.
| 36,579
|
19/hal.archives-ouvertes.fr-hal-03109465-document.txt_2
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 4,898
| 8,024
|
3. La tour de Mutte dans l'histoire de la sidérurgie lorraine 3.1. L'emploi de la minette dans la production du fer : les acquis des recherches récentes
Jusqu'à une date relativement récente, on a considéré que les premiers développements de la sidérurgie en Lorraine étaient liés à l'utilisation de minerais riches récoltés dans des gisements de surface. A contrario, le minerai de fer oolithique ou minette de Lorraine, beaucoup moins riche en fer, était réputé n'avoir été utilisé qu'à partir de la seconde moitié du XVIIIe s. (usines de Wendel à Hayange), puis de manière industrielle à partir des années 1870-1880. Les arguments avancés pour nier toute utilisation ancienne s'appuyaient sur la faible teneur en fer (autour de 30-35 % en moyenne) qui ne pouvait permettre d'obtenir des rendements satisfaisants, et sur la trop grande richesse en calcaire et en phosphore qui entrainait la production d'un fer de mauvaise qualité, difficile à forger 52. Ces arguments se basaient sur les a priori des milieux scientifiques et industriels minimisant souvent le niveau des savoir-faire techniques des périodes antérieures à la Révolution industrielle et qui, de plus, raisonnaient en termes de sidérurgie moderne : en effet, dans la première moitié du XIXe siècle, l'emploi de la minette de Lorraine est limité parce que les fontes produites, trop phosphoreuses, sont cassantes et, de plus, agressent les parois des convertisseurs lors de leur affinage. Ce problème sera résolu par la mise en point du procédé Thomas-Gilchrist, permettant de traiter les fontes phosphoreuses, qui va entrainer le développement très rapide de la mise en exploitation du bassin minier et sidérurgique de Lorraine centrale et septentrionale, à partir de la décennie 1880-1890. Il paraissait alors évident que ces « èmes techniques » étaient insurmontables pour les sidérurgistes des époques antique et médiévale. Pourtant, les recherches archéométallurgiques menées depuis la fin des années 198053 ont complètement modifié la trame de l'histoire du développement de la production primaire du fer en Lorraine avant le XVIe siècle, en démontrant que la minette apparaissait comme le minerai de fer le plus largement utilisé durant tout le Moyen Age, et peut-être même dès l'Antiquité, alors même que les gîtes de minerais de surface, pourtant facilement accessibles, étaient largement délaissés 54. 53 Programme de recherche conduit de 1989 à 2005 par le Laboratoire de Métallurgies et Cultures (IRAMATUMR 5060), le Laboratoire d'Archéologie des Métaux (Musée de l'Histoire du fer, CCSTIFM) et le Centre de Recherches Pétrographiques et Géochimiques (CNRS), sous la direction de Marc Leroy, avec le soutien du Service régional de l'archéologie de Lorraine (MCC-DRAC Lorraine), de la Région Lorraine, du département de Meurthe-et-Moselle, de l'Office National des Forêts et de l'INRAP. 54 Leroy
1997
,
Leroy M.
et
al.
2015. 17 Haye) où sont associés géographiquement minette et minerai de fer fort, deux minerais de composition radicalement différente. Dans plus de 90 % des cas, le minerai utilisé dans ces ateliers est la minette, et ce même lorsqu'ils ne sont pas implantés directement à proximité des affleurements55. Ces résultats modifient considérablement notre perception de la maîtrise des savoirfaire techniques dès ces époques anciennes. La compréhension détaillée des processus de transformation de la minette dans les fourneaux de réduction, par les études archéométriques et les reconstitutions expérimentales, amène à considérer que la composition chimique singulière de la minette la rend remarquablement adaptée au procédé de réduction directe, en procurant notamment d'intéressants rendements en fer, qui compensent la faible teneur initiale du minerai, mais qui nécessitent toutefois des gammes de températures de fonctionnement significativement plus élevées qu'avec un minerai à gangue siliceuse, entrainant des conditions de fonctionnement proches, par certains aspects, de celles du procédé indirect. Il s'agit donc d'un acquis fondamental du point de vue plus général de l'histoire des techniques. Les concentrations de sites archéologiques découverts sur le plateau d'Hussigny dans le nord du Pays-Haut, sur celui délimité par les vallées de la Fensch et de l'Orne dans le sud du Pays-haut, ou sur celui encadré par les vallées de la Meurthe et de la Moselle (Plateau de Haye), identifient plusieurs espaces de production actifs au cours du Moyen Age (figure 13). Certains d'entre eux correspondent très probablement aux secteurs de production que nous font connaître, à partir du milieu du XIIe siècle, les sources historiques dépouillées 56 : les « forges » de la Châtellenie de Briey appartenant au comté de Bar dans la forêt de BrieyMoye ; les « forges » mentionnées dans le ban de Chaligny, dépendant du comté de Vaudémont ; celles des abbayes de Justemont et de Jamailles ou des seigneurs de Florange 57. Il s'agit d'exemples assez remarquables de correspondance entre les données archéologiques et les sources historiques. Ces ensembles, actifs au cours des XIIIe, XIVe et XVe siècles, ont ainsi pu servir de sources d'approvisionnement pour les besoins de la ville de Metz et notamment le chantier de la cathédrale.
Figure 13 : Vestiges archéologiques d'ateliers de production du fer et de sites d'extraction minière datés de la fin du Moyen Age et du début de l'Epoque moderne (XIII e – XVIe s.) en Lorraine centrale et septentrionale. 57 Leroy M. et al. 2015, pp. 109-112.
Dans les textes médiévaux, le terme de forge se rapporte à un établissement produisant du fer quel que soit l'étape de la chaîne opératoire concernée. Ainsi, les ateliers de réduction du minerai sont qualifiés de forge, au même titre que les ateliers de travail du fer. Rien de permet donc de les dissocier. Au cours des XIIIe, XIVe et XVe siècles, la ville de Metz qui compte près de 30 000 habitants est un important marché de consommation urbain, en même temps qu'un centre de commerce dominant dans l'espace régional58. La ville connaît aussi durant cette période une intense activité dans le domaine de la construction urbaine. Une nouvelle enceinte fortifiée longue de plus de 5 km est construite dans la première moitié du XIIIe siècle. Outre la cathédrale, de nombreuses autres églises sont édifiées, plusieurs ponts sur la Moselle sont construits, des places sont aménagées et de nombreux hôtels patriciens et des bâtiments publics (greniers, Palais des Treize) bâtis. Les besoins en fer sont probablement considérables, ne serait-ce que pour la fabrication et l'entretien des outils des carriers et des maçons, mais aussi pour la fabrication des huisseries et des charpentes. Ont déjà été mentionnées les 50 000 livres de fer (environ une vingtaine de tonnes) apparaissant dans les comptes de construction du clocher et de la flèche de la tour de Mutte à la fin du XVe siècle (supra). La ville de Metz constitue donc un important marché pour les produits sidérurgiques de la région et d'ailleurs. Les artisans du fer y semblent du reste nombreux, puisque la corporation des fèvres (forgerons) compterait une centaine de membres au XIIIe siècle 59 ; mais les productions ne sont pas connues en dehors de l'armurerie dont sont clients les princes lorrains, mais qui est aussi vendue sur les marchés extérieurs60. Dans ce contexte, la mainmise sur les revenus des forges des comtes de Bar de la châtellenie de Briey par les banquiers messins, tout au long des XIIIe et XIVe siècles, prend un relief particulier. Les besoins financiers des comtes, puis ducs de Bar, les amènent d la fin du XIIIe siècle à emprunter des sommes importantes auprès de banquiers messins, la puissance de la finance messine faisant de la ville de Metz, la banque des princes lorrains61. Pour couvrir les sommes prêtées, les comtes de Bar vont gager auprès de leurs créanciers une partie des revenus de leur domaine. Ainsi des revenus des bois et des forges de la châtellenie de Briey et des villages en dépendant 62. Cette engagère (waigeire), dite de la Montagne, débutée en 1285, est plusieurs fois renouvelée au cours du XIVe siècle. 59 Schneider 1950, p. 239. 60 Schneider 1950, p. 222, Girardot 1986, p. 140. 61 Schneider 1950, pp. 249-316. 62 Schneider 1950, pp. 350-354. Jean de Vy auprès du comte d'Edouard Ier au début du XIVe siècle et Aubert Augustaire auprès du duc Robert I à la fin du même siècle (Girardot 1986). 63 er 19 facilitent son débouché sur des marchés où ils occupent des positions dominantes64. Ainsi, bien que les ateliers de production du fer de la châtellenie de Briey soient affermés par l'autorité comtale à des artisans du fer moyennant le paiement de taxes journalières, on peut imaginer que la mainmise des patriciens messins sur ces revenus les incitent à en orienter la production vers les acheteurs travaillant dans la ville, et au premier titre les autorités municipales elles-mêmes, ces hommes étant membres des familles qui participent au gouvernement de la cité. Le fait que le fer des crampons prélevés dans la tour de Mutte soit issu de la réduction de la minette, seul minerai utilisé à cette période dans la châtellenie de Briey comme le montrent les recherches archéométallurgiques citées plus haut, appuie incontestablement cette hypothèse, même si d'autres secteurs du plateau des Côtes de Moselle ont pu aussi servir de zones d'approvisionnement65. Certes, cette analyse est surtout valable pour les XIIIe et XIVe siècles (et donc pour les agrafes placées dans les oculi des grandes baies orientales terminées à la fin du XIIIe siècle). Elle est, en revanche, moins assurée pour la fin du XVe, puisque les engagères sur les forges de la forêt de Moyeuvre paraissent avoir été récupérées (au moins en partie) par le duc Robert Ier dans la dernière décennie du XIVe siècle66. Toutefois, parmi les crampons étudiés, ceux mis en place lors du chantier du clocher et de la flèche, et fabriqués par le procédé direct, sont bien produits à partir de ce même i et pourraient donc avoir une origine similaire 67. Par ailleurs, la ville de Metz possède, à la fin du XVe siècle une forge à Ars-sur-Moselle, à quelques kilomètres en amont de la ville68 ; dans ce secteur encore, le seul minerai de fer disponible est la minette. Dans la mesure où le clocher de la tour de Mutte est le beffroi municipal (monument possédant une forte charge symbolique et politique) et que sa construction est financée par la ville, donc par les familles qui la gouvernent, il est logique de penser que ces dernières y mobilisent aussi les ressources matérielles qu'elles contrôlent.
3.3. 67 Des forges sont toujours mentionnées dans les comptes de la prévôté de Briey aux XVe et XVIe siècles, à Moyeuvre, en Conroy et à Ranguevaux. D'autres appartiennent aux abbayes de Saint-Pierremont et de Jamailles. 68 Le Journal de Jean Aubrion mentionne des forges neuves, propriété de la ville, à Ars-sur-Moselle en 1492, ainsi que la construction la même année d'une « forge à fer » au Saulcy à Metz (édition de 1857, pp. 287 et 292). On ne sait pas si l'établissement d'Ars existe déjà lors de la construction du clocher de la Mutte, une douzaine d'année plus tôt. 20 de son apparition ont fait l'objet de nombreuses recherches69. La terminologie employée dans les sources écrites a longtemps servi de seule référence pour suivre la mise en place de cette nouvelle filière de production. Mais le gros écueil rencontré est que les termes qui apparaissent dans ces textes sont interprétés par l'historien en fonction de la terminologie technique qui a cours au moment de la transcription et de l'idée qu'il se fait de la technique en usage au moment où le texte est rédigé (par exemple, les termes fournel et haut fournel employés dans le nord du Pays-Haut ou dans la prévôté de Virton au XVe siècle sont assimilés à une dénomination locale d'un appareil de type haut fourneau parce qu'on présuppose qu'il existe déjà à cette époque). Par ailleurs, les textes dans lesquels apparaissent ces termes ne sont pas des documents techniques, mais des documents le plus souvent d'ordre juridique ou financier. Ils ne sont pas rédigés par des spécialistes des techniques métallurgiques, mais par des comptables, des administrateurs ou des juristes. Les termes employés ne reflètent donc pas forcément une réalité technique, mais peut-être simplement le vocabulaire ou les connaissances que possède celui qui rédige les documents. De plus, même dans le cas où ces termes auraient une valeur technique, leur emploi et la généralisation de leur usage peuvent être de beaucoup postérieur à l'apparition de l'appareil technique qu'ils nomment. De la même manière, la production des premiers objets en fonte (principalement des boulets de canons) serait mentionnée dans plusieurs textes, dès le premier quart du XV e siècle70, mais cette identification repose là aussi sur une interprétation des termes employés qui reste sujette à discussion. De leur côté, les premières descriptions des appareils et des procédés ne semblent pas remonter avant le début du e siècle71. Les recherches archéologiques et archéométriques permettent aujourd'hui d'avancer significativement sur cette problématique, tant du point de vue de la fouille des ateliers, que de l'étude des déchets de production, mais aussi des produits eux-mêmes, comme le montrent les études sur les fers utilisés dans l'architecture monumentale (supra). La démonstration de la disposition concomitante de fers issus des deux procédés techniques de production du fer sur le clocher de la tour de Mutte éclaire donc la phase de diffusion de la filière indirecte dans l'espace lorrain à la fin du Moyen Age. 71 Gille 1970, Tylecote 1987, pp. 327-332.
Cosnes et de Saint-Pancré, dans le nord du Pays-Haut72. Or le minerai tiré de ces minières est du minerai de fer fort. De plus, l'abbaye peut aussi détenir d'autres établissements métallurgiques, notamment sur le territoire belge actuel, alimentés par d'autres minerais locaux. Pour la ville de Metz, les sources d'approvisionnement en fer sont donc probablement multiples. Les relations commerciales attestées avec les pays rhénans et la région de Liège pourraient aussi y apporter des produits sidérurgiques73. En Lorraine aussi, d'autres espaces sidérurgiques existent (le Barrois, le massif du Donon), dans lesquels le procédé indirect pourrait être déjà actif à la fin du XVe siècle 74. Au vu de la quantité de fer évoquée dans les comptes (plus d'une vingtaine de tonnes), il est raisonnable de penser que ce besoin n'a pu être satisfait par un unique centre de production régional. 4. Conclusion
Alors que l'utilisation du minerai sédimentaire de Lorraine, la minette, pour la production de fer brut est clairement démontrée par les recherches archéométallurgiques conduites depuis plusieurs années75, c'est la première fois que l'emploi de pièces de fer forgé qui en sont issues est formellement attesté dans la construction d'un édifice de la fin du Moyen Age, en l'occurrence le principal monument de la plus grande ville lorraine de cette époque, la cathédrale Saint-Etienne de Metz. Ces crampons de scellement sont mis en oeuvre au moins dès la phase terminale de la construction du fût de la tour méridionale, dans la seconde moitié du XIIIe siècle (achèvement vers 1280), érigée en beffroi municipal au XIVe siècle, puis dans son couronnement en pierre édifié entre 1478 et 1483 pour abriter la cloche de la cité. La provenance du fer est donc d'origine relativement locale : une zone de production primaire, utilisant exclusivement ce minerai, est en effet attestée par les sources archéologiques et historiques sur le plateau des côtes de Moselle à une vingtaine de kilomètres au nord-ouest de la ville, dans la châtellenie de Briey appartenant au comté de Bar76. Cet espace de production constitue pour ce dernier une source de revenu importante (affermage des coupes de bois et des « forges », droit sur l'eau). Mais à partir du dernier quart du XIIIe siècle et durant au moins tout le XIVe siècle, le revenu de ces « forges » est engagé auprès de plusieurs grands bourgeois de la ville de Metz, devenus créanciers des comtes de Bar77. On peut penser que, outre les revenus tirés des affermages, ces bourgeois tirent aussi profit de la vente du fer, même si les sources écrites ne le précisent pas. On peut donc émettre l'hypothèse qu'une partie du fer utilisé dans cité, et notamment dans la construction, provient de cette zone de production. La démonstration établie par la présente étude vient donc apporter consistance à cette thèse. Toutefois, cette source d'approvisionnement n'est 72 En 1488, l'abbaye obtient du duc de Lorraine René II une exemption de droit de passage pour le minerai qui sortait de la prévôté ducale de Longwy où sont situés les minières de Cosnes et Saint-Pancré. 73 Schneider 1950 p. 180. 74 Les termes de « fondresse » ou « fonderesse » sont mentionnés pour Vaux, prévôté de Longwy (1445-1446), Morley et Saudrupt en Barrois (1458 et 1474), Belrupt en forêt de Darney (Vosges, 1495) et à même à Moyeuvre en 1498. On rencontre le terme d'affinerie dans la seconde moitié du XVe siècle, également à Morley (14681470), à Saudrupt (1474) et à Sexey dans le bassin de Nancy (1495).
75 Leroy et al. 2015. 76 Leroy et al. 2015, Horikoshi 2007. 77 Schneider 1950. 22 sans doute pas la seule, comme l'atteste la référence figurant dans les comptes de construction du clocher pour l'année 1479 et mentionnant la fourniture de fer auprès de l'abbaye cistercienne d'Orval. Or celle-ci située à plus de 80 km au nord-ouest, sur l'actuelle frontière franco-belge, dispose d'établissements métallurgiques utilisant diverses sources de minerai de fer dans le nord de la Lorraine (minerai de fer fort) et dans le sud-est de la Belgique. Mais en l'état, et peut-être faute de référentiel géochimique suffisant, seuls des crampons de scellement associés à la signature chimique de la minette ont été identifiés. Les études à venir, avec notamment la multiplication d'analyses d'autres crampons, devront donc s'attacher à préciser ce point. Par ailleurs, l'étude de ces crampons de scellement montre que les deux procédés techniques de production du fer brut, le procédé direct et le procédé indirect, sont employés concomitamment au sein de l'espace de production utilisant la minette, au moins jusque dans les dernières décennies du XVe siècle, alors même que cette période correspond en Lorraine au début de la diffusion du procédé indirect. Mais celle-ci semble se faire principalement dans les secteurs géographiques où les ateliers utilisent un autre minerai que la minette (fer fort dans le Pays-Haut, minerai géodique dans le Barrois méridional). La permanence de l'emploi de fer forgé élaboré à partir de la minette en réduction directe dans la construction du clocher de la tour de Mutte à la fin du XVe siècle vient ainsi confirmer les informations fournies par les recherches archéologiques sur les ateliers de production eux-mêmes, qui montrent que le procédé de production direct, avec ou sans utilisation de l'énergie hydrauli , semble rester prédominant, voire presque exclusif, dans les espaces utilisant le minette jusqu'au début de l'Epoque moderne78. 78 Leroy et al. 2015. Belhoste 1996 : BELHOSTE J.-F., « Fabrication et mise en oeuvre du fer dans la construction. Grandes étapes d'évolution (XIIIe-XIXe siècles) », Monumental, 13 1996, p. 9-17. Calmon, Cenac 1994 : CALMON J.-C., CENAC J., « Laminage à froid des produits plats », Techniques de l'ingénieur. Matériaux métalliques, Paris : Techniques de l'ingénieur, 1994, 28 p. (Mémoire 7950). Chapelot, Benoit 1985 : CHAPELOT O., BENOIT P., éd., Pierre et métal dans le bâtiment au Moyen Age, Paris, EHESS, 1985, 370 p., réimpression, Paris, 2001. Collet 2010 : Collet B., La fortification de Troyes en Champagne : un grand chantier urbain fin XVe – première moitié du XVIe siècle, Thèse de doctorat d'histoire sous la direction de J. Chapelot, EHESS, 2010. Desaulty et al. 2009 : DESAULTY A.-M., DILLMANN Ph., L'HÉRITIER M., MARIET C., GRATUZE B., JORON J.-L., FLUZIN Ph., « Does it come from the Pays de Bray? Examination of an origin hypothesis for the ferrous reinforcements used in French medieval churches using major and trace element analyses », Journal of Archaeological Science, 36, 2009, p. 2445-2462. Dillmann 2009: DILLMANN Ph., « De Soissons à Beauvais : le fer des cathédrales de Picardie, une approche archéométrique », dans TIMBERT A. (dir.), L'Homme et la Matière : l'emploi du plomb et du fer dans l'architecture gothique, Paris, Picard, 2009, p. 93-112. Dillmann, L'Héritier 2007 : DILLMANN Ph., L'HERITIER M., « Slag inclusion analyses for studying ferrous alloys employed in French medieval buildings: supply of materials and diffusion of smelting processes », Journal of Archaeological Science, 34, 2007, p. 1810-1823. Dillmann, L'Héritier 2016 : DILLMANN Ph., L'HERITIER M., « Archéométrie et histoire des techniques : les procédés direct et indirect en sidérurgie (XIVe-XVIIe siècles) », Artefact, 4, L'Europe technicienne XVe-XVIIIe siècle, 2016, p. 63-81. Disser 2014: DISSER A., Production et circulation du fer en Lorraine (VIe s. av. J.-C. - XVe s. ap. J.-C.), Thèse de doctorat, Université de Technologie de Belfort-Montbéliard, Belfort, 2014. Disser et al. 2014 : DISSER ., DILLMANN P., BOURGAIN C., L'HÉRITIER M., VEGA E., BAUVAIS S., LEROY M., « Iron reinforcements in Beauvais and Metz Cathedrals : from bloomery or finery? The use of logistic regression for differentiating smelting processes », Journal of Archaeological Science, 42, 2014, p. 315333. Disser et al. 2016 : DISSER A., DILLMANN Ph., LEROY M., L'HÉRITIER M., BAUVAIS S., FLUZIN Ph., « Iron supply for the building of Metz Cathedral : new methodological development for provenance studies and historical considerations », Archaeometry, 2016, édition électronique, University of Oxford, 18 p. Erlande-Brandenburg 1996 : ERLANDE-BRANDEBURG E., « L'architecture rayonnante et le métal », Dossiers d'archéologie, n°219, déc. 1996 - janv. 1997, p. 46-53. Pagès, L'Héritier 2015 : Pagès G., L'Héritier M., « La circulation du fer sous ses formes brutes dans la Gaule antique et la France médiévale à travers l'analyse archéométallurgique des vestiges archéologiques », dans D. Boisseuil et C. Rico, dir., Le marché des matières premières dans l'Antiquité et au Moyen Âge (2) : La circulation des matières premières : routes, moyens, acteurs, Casa de Velasquez, 2015, https://www.casadevelazquez.org/fileadmin/fichiers/investigacion/Programmes_pluriannuels/ERMO/ Resume-Pages-L_Heritier-MMP-2014.pdf Gille 1970 : GILLE B., « L'évolution de la technique sidérurgique. Esquisse d'un schéma », Revue d'histoire des mines et de la métallurgie, II, 2, Nancy, 1970, p. 121-226. 24 Girardot 1970 : GIRARDOT A., « Forges princières et forges monastiques, coup d'oeil sur la sidérurgie lorraine aux XIIe et XIIIe siècles », Revue d'histoire des mines et de la métallurgie, II, 1, Nancy, 1970, p. 3-20. Girardot 1986 : GIRARDOT A., « La République messine », Le Moigne F.-Y. dir., Histoire de Metz, Privat, Toulouse, 1986, p. 137-166. Hall 1983: HALL B. S., « Cast iron in late medieval Europe : a re-examination », Canadian institut of mining and metallurgy bulletin, 76, 855, 1983, p. 86-91. Horikoshi 2007: HORIKOSHI K., L'industrie du fer en Lorraine, XIIe - XVIIe siècles, Ed. Dominique Guénot, Langres, 2007, 515 p. Jacob 1864 : JACOB V., Recherches historiques sur le tour et la cloche de Mutte de la cathédrale de Metz, Metz, 1864. Jockenhövel 2013 : JOCKENHOVEL A., Mittelalterliche Eisengewinnung im Märkischen Sauerland: archäometallurgische Untersuchungen zu den Anfängen der Hochofentechnologie in Europa, Rahden, Verlag Marie Leidorf, 2013, 419 p. Lardin 1998 : Lardin Ph., Les chantiers du bâtiment en Normandie orientale (XIVe-XVIe siecle). Les matériaux et les hommes, Lille, Presses universitaires du Septentrion, 1998. L'Héritier 2007 : L'Héritier M., L'utilisation du fer dans l'architecture gothique: les cas de Troyes et de Rouen, Thèse de doctorat d'archéologie sous la direction de P. Benoit, Université PanthéonSorbonne-Paris I, 2007. L'Héritier et al. 2005 : L'HÉRITIER M., JUHIN A., DILLMANN Ph., ARANDA R., BENOIT P., « Utilisation des alliages ferreux dans la construction monumentale du Moyen Age. Etat des lieux de l'avancement des études métallographiques et archéométriques », Archéosciences, Revue d'archéométrie, 29, 2005 pp. 117-132. L'Héritier et al. 2007 : L'HÉRITIER M., DILLMANN Ph., BENOIT P., « L'emploi du fer dans la construction monumentale à la fin du Moyen-Age : production et utilisation », 4e congrès international d'archéologie médiévale et moderne Medieval Europe Paris 2007 : l'Europe en mouvement, Paris, INHA, septembre 2007 (édition électronique Internet : medieval-europe-paris-2007.univ-paris1.fr), 18 p. L'Héritier et al. 2010 : L'HÉRITIER M., DILLMANN Ph., BENOIT P., « Iron in the building of gothic churches: its role, origins and production using evidence from Rouen and Troyes », Historical Metallurgy, 44(1), 2010, p. 21-35. L'Héritier, Dillmann, 2011 : L'HÉRITIER M., DILLMANN Ph., « Fer ou acier? Caractérisation des alliages ferreux utilisés dans la construction des églises gothiques au Moyen Age et à la période moderne. L'exemple de Troyes et de Rouen », DILLMANN Ph., PEREZ L., VERNA C. éd., L'acier en Europe avant Bessemer, CNRS / Université de Toulouse-Le-Mirail (Histoires et Techniques), Méridiennes, 2011, p. 263-281. L'Héritier et al. 2013 : L'HÉRITIER M., DILLMANN Ph., AUMARD S., FLUZIN Ph., « Iron? Which Iron? Methodologies for Metallographic and Slag Inclusion Studies », HUMPHRIS J., REHREN T., dir., The World of Iron, proceedings of international conference, 16-20 february 2009, London : Archetype editions, 2013, p. 409-420. L'Héritier et al. 2016 : L'HÉRITIER M., ARLES A., DISSER A., GRATUZE B., « Lead it be! Identifying the construction phases of gothic cathedrals using lead analysis by LA-ICP-MS », Journal of Archaeological Science: Reports 6, 2016, p. 252–265. Leroy M. 1997 : LEROY M., La sidérurgie en Lorraine avant le haut fourneau. L'utilisation du minerai oolithique en réduction directe, Monographie du CRA, 18, Paris : CNRS Editions, 1997, 310 p. Leroy M. et al. 2015 : LEROY M., MERLUZZO P. LE CARLIER C., Archéologie du fer en Lorraine. Leroy S. et al. 2012 : LEROY S., COHEN S.X., VERNA C., GRATUZE B., TEREYGEOL F., FLUZIN Ph., BERTRAND L., DILLMANN Ph., « The medieval iron market in Ariège (France). Multidisciplinary analytical approach and multivariate analyses », Journal of Archaeological Science, 39, 2012, p. 1080-1093. Leroy S. et al. 2015 : LEROY S., L'HERITIER M., DELQUE-KOLIC E., DUMOULIN J.-P., MOREAU Ch., DILLMANN Ph., « Consolidation or initial design? Radiocarbon dating of ancient iron alloys sheds light on the reinforcements of French gothic cathedrals », Journal of Archaeological Science, 53, 2015, p. 190-201. Maggi et al. 2012 : MAGGI Chr., PAGÈS G., MERTENS A., HOFFSUMMER P., « Utilisation et technique de production du fer et du bois dans les charpentes de comble mosanes : premiers jalons d'une évolution du XIIe au XVIIIe siècles », ArchéoSciences, Revue d'archéométrie, 36, 2012, pp. 95-115. Mertens et al. 2009 : MERTENS A., MATHIS F., DILLMANN Ph., HOFFSUMMER P., « Emergence du procédé indirect d'élaboration du fer en région liégeoise : apport d'une étude technique de fers de charpentes dates par dendrochronologie », Chimie nouvelle, 101, 2009, p. 24-28. Myrstener et al. 2016 : MYRSTENER E., LIDBERG W., SEGERSTRÖM U., BIESTER H., DAMELL D., BINDLER R., « Was Moshyttan the earliest iron blast furnace in Sweden? The sediment record as an archeological toolbox », Journal of Archaeological Science : Reports, vol. 5, 2016, p. 35-44. Neff, Dillmann 2001 : NEFF D., DILLMANN Ph., « Phosphorus isation and quantification in archaeological iron artefacts micro-PIXE microanalyses », Nuclear Instruments and Methods in Physics Research B, 181, 2001, p. 675-680. Pagès et al. 2008 : PAGÈS G., LONG L., FLUZIN Ph., DILLMANN Ph., « Réseaux de production et standards de commercialisation du fer antique en Méditerranée : les demi-produits des épaves romaines des SaintesMaries-de-la-Mer (Bouches-du-Rhône) », Revue Archéologique de Narbonnaise, 41, 2008, p. 261-283. Schneider 1950 : SCHNEIDER J., La ville de Metz aux XIIIe et XIVe siècles, Nancy, imprimerie Georges Thomas, 1950, 606 p. Stewart et al. 2000 : STEWART J.W., CHARLES J.A., WALLACH E.R., « Iron-phosphorus-carbon system, Part 1- Mechanical properties of low carbon iron-phosphorus alloys », Materials Science and Technology, 16, 2000, p. 275-282. Taupin 1996 : TAUPIN J.-L., « La cathédrale de Bourges et l'utilisation du fer dans l'architecture », Bulletin Monumental, 1996, p. 129-148. Tylecote 1987 : TYLECOTE R. 26 Figures
Figure 1 : Quantités de fer achetées par la ville de Metz pour le chantier de la tour de Mutte entre janvier 1479 et décembre 1483. 27 Figure 2 : Emplacement des crampons prélevés sur les façades externes de la tour de Mutte. Figure 3 : Mesures prises pour caractériser les dimensions des éléments de renfort ferreux. 28 Figure 4 : Distributions des longueurs, masses et rapports d'aplatissement des crampons prélevés. 29 Figure 5 : Emplacement des crampons à tenons en forme de torsades. Figure 6 : Méthodes d'impression des crans sur les tenons des crampons prélevés. 30 Figure 7 : Emplacement des crampons à tenons crantés à la fois sur leurs faces externes et internes. 31 Figure 8 : Crampon formé par laminage. 32 Figure 9 : Répartition des groupes de composition chimiques des plombs de scellement prélevés sur les façades externes de la tour (en haut) et de la voûte de la salle de la cloche (en bas). 33 Figure 10 : Résultats calibrés des datations radiocarbone effectuées sur une sélection de crampons. 34 Figure 11 : En bas : résultats d'une classification ascendante hiérarchique définissant des ensembles géochimiques cohérents au sein du référentiel lorrain. En haut : extension géographique approximative des ensembles géochimiques constitués. 35 Figure 12 : A gauche : résultats d'une classification ascendante hiérarchique réalisée à la fois sur les ensembles géochimiques lorrains et les inclusions des onze renforts analysés issus du procédé direct. A droite : résultats d'une classification ascendante hiérarchique réalisée sur l'ensemble de production associé à l'utilisation du minerai oolithique aalénien (minette) et les inclusions des onze renforts analysés issus du procédé direct. 36 Figure 13 : Vestiges archéologiques d'ateliers de production du fer et de sites d'extraction minière datés de la fin du Moyen Age et du début de l'Epoque moderne (XIIIe - XVIe s.) en Lorraine centrale et septentrionale. Plusieurs ensembles pourraient correspondre aux espaces de production mentionnés dans les sources écrites (cartographie Marc Leroy)..
| 33,107
|
64/hal.archives-ouvertes.fr-tel-02321356-document.txt_44
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 7,932
| 14,037
|
Jaçoit que : conjonction signifiant ad Mo(n)te S(an)cti Michaelis in p(er)ic(u)lo maris d(omi)n(u)s rex Francorum no(m)i(n)atus pulcher Philippus & obtulit maiori altari b(eat)i Michael(is) archa(n)g(e)li imaginem aurea(m) maiorem b(eat)i Michael(is) videlicet ». [ta]. Avranches BM, 213, f. 161v (Inventaire des reliques de 1396) : « Item, in una corona de spinis vel de junctis marinis corone preciose Jhesu Christi salvatoris nostri, de dono illustris Francorum regis Philippi, cum magna portione ligni sancte crucis, qui dedit etiam ymaginem beati Michaelis deauratam et multa bona. Deus sibi retribuat » (Dubois (éd.) 1967, 563). « bien que, encore que », usitée du XVIe 354 au XVIIIe siècle (FEW, s. v. jam (t. 5, p. 25). HA, ch. 16 Ce qui fut fait ; l'an 1314e, l'11e septembre cet abbé deceda et fut enterré dans la nef de cette eglise. R7[tb] ; R8[tc] ; Θ1[td] ; λ f. 152[te]. § 26 e De Jean 2 e du nom, surnommé de La Porte, 26 e abbé regulier. Sources du chapitre : Avranches BM, 213, ff. 180v-181r (De abbatibus) ; Avranches BM, 214, uc 3, p. 197 ; Avranches BM, 215, f. 164v (Obituaire) ; Paris BNF, Français 18947, ff. 57v-58r (HG[tf], tr. 3, ch. 18[tg]) ; Paris BNF, Français 18948, ff. 58v-59r. Passages parallèles : Avranches BM, 211, f. 93v ( de Jean Laporte[th]) ; Avranches BM, 212, ff. 27v-38r ; Avranches BM, 213, ff. 184r-192r ; Avranches BM, 211, ff. 45r-63v. Passages parallèles dans notre corpus : Caen BM, Mancel 195, ff. [72r-77v], p. 129-140 (ch. 27) ; Paris BNF, Français 18950, f. [84v], p. 167 (ch. 16 § 26) ; Paris BNF, Latin 13818, f. 431r. L'abbé Guillaume du Chasteau estant mort, l'an 1314, l'11e septembre, les religieux esleurent Jean de la Porte pour leur supperieur et gouverna très prudemment ce monastere l'espace de 20 ansLS environ qu'il vescut en la dignité d'abbé, et il se fit plusieurs miracles[ti] en ce lieu de son temps. L'an 1324, les soldatz de la garnison de ce monastere furent introduitz par un gouverneur des portz et frontiers de Normandie, nommé Guillaume de Merle[tj]. Louys, duc de Bourbonnois, vint en pelerinage en ce monastere l'an 1329, et offritLT trois chandeliers d'argent d'immense grandeur ; à present ils ne se voient plus, on les a changé en d'autre argenterie[tk]. Jean de la Porte, abbé, eut beaucoup d'affaires pour la conservation des domaines et biens deppendants de son monastere. Il retira l'an 1330 le prioré de Saint-Clement LT « trois » biffé après « offrit ». Avranches BM, 215, f. 168v (Obituaire) : « III Idus [Septembris] Obiit Guillelmus de castro abbas hujus loci ». [tc]. Avranches BM, 214, uc 3, p. 197 : « Guillelmus de castro III idus septembris ». ; Avranches BM, 214, uc 4, p. 74 : « Guillelmus de castro III idus septembris ». [td]. Manuscrit perdu. [te].
Manuscrit perdu. [tf]. Sources citées par Jean Huynes : « RR f. 180 et ψ f. 28 » ; « Z f. 31 et λ f. 155 et R7 et R8 et Θ1 ». [tg]. Robillard de Beaurepaire (éd.) 1872, 185. [th]. Simon (éd.) 1967, 189-190. [ti]. Les miracles sont
écrit plus précisément par l'auteur dans le chapitre 12 de [tb]. ce texte et dans Les Curieuses recherches (ch. 27 § 16, 1§ 17, § 18, § 19, § 20, § 21, § 22, § 23, § 24, § 25, § 26, § 27, § 28, § 29, § 30). Ces miracles datés de 1333, se trouvent dans les manuscrits montois Avranches BM, 212, ff. 27v-38r ; Avranches BM, 213, ff. 184r-192r ; Avranches BM, 211, ff. 45-63v. [tj]. Voir aussi supra (ch. 15 § 2) et Les Curieuses recherches (ch. 27 § 2). [tk]. Dans Les Curieuses recherches (ch. 27 § 3), Thomas Le Roy précise que le changement eut lieu en 1643 ; cependant il décrit les trois chandeliers. 355 L'histoire de l'Abbaye du Mont S aint-Michel au péril de l a mer, dio cese d'Avr anches en l a province de Normandie RR f. 180[tl] ; ψ f. 28[tm]. de Gersay 94 des mains de certains violentz qui l'avoient usurpé, et plusieurs autres choses ailleurs[tn]. L'an 1319, il fit bastir la chapelleLU du manoir de Montrouault[to], et l'an 1321, il fit bastir une autre chapelle dans le manoir de Loyseliere[tp]. Il obtint trois bulles du souverain pontife Jean 22e : l'une confirmative du monastere, etc. l'anLV 1332[tq] ; l'autre touchant le retrait du temporel aliené ou perduLW l'an 1328[tr] ; et l'autre portant concession d'indulgence dans l'eglise du monastereLX l'an 1332[ts]. Il obtint sentence contre les officiers royaux après avoir eu grand procez avec eux touchant la delivrance d'un poulainLY gayf et d'un grand navire eschoué sur les terres [illisible]LZ de la baronnie de Genestz, se montrant en cela beaucoupMA zelé pour les droitz de son monastereMB [tt]. Le roy Philippes 6e, roy de France, prit son monastere et deppendances en sa protection et sauvegarde par lettre patente de l'an 1334, et par autre lettres de la mesme année l'exempta de payer la pension octroyée par le clergé au roy de Navarre, par l'ordre du « q » biffé après « chapelle ». | LV « dell'an » biffé et remplacé par « l'an » dans l'interligne. | LW « de » biffé après « perdu ».
|
LX « de » biffé
après « monastere
». |
LY « gaif
» biffé après « poulain ». | LZ Un mot que nous n'avons pu déchiffrer a été ajouté dans l'interligne. | MA « beaucoup » ajouté dans l'interligne. | MB « incontinen
» biffé après « monastere ». LU Avranches BM, 213, ff. 180v-181r (De abbatibus) : « Isti Guillelmo successit Johannes de Porta, qui feliciter ac sub omni tran[s]quillitate rexit. Hic multa bona fecit. Recuperavit prioratum de Sancto Clemente de Gersorio. Istud monasterium cum omnibus pertinen||ciis suis retraxit desub rege Nauarre. Nostras cartas et cirographa confirmari fecit a domino Philippo de Valeys, domino nostro et rege Francorum. Plures redditus etiam mon(asterio) acquisivit. Valde viriliter resistit contra illos qui tempore guerre volebant quod monasterium solveret stipendia illorum quos rex ponebat ad custodiendum Montem. Valde profuit in edificando. Obiit anno Mo CCCo tricesimo et sepultus est in cappella Sancti Johannis nova, quam ipse dotavit cum assensu conventus et ibi duos cappellanos constituit. ». [tm]. Manuscrit perdu. [tn]. 94. résume la bulle et la date des nones d'octobre, seizième année
du
pontificat
de
Jean
XXII
. Nous ne trouvons aucune mention de cette bulle dans les registres de Jean XXII. [tr]. La bulle originale est perdue. Dans Les Curieuses recherches (ch. 27 § 12), Thomas Le Roy résume et date une bulle pour la restitution des biens du Mont Saint-Michel mais par l'official de Rennes. Nous n'en trouvons aucune mention dans les registres de Jean XXII. [ts]. La bulle originale est perdue. Dans Les Curieuses recherches (ch. 27 § 14), Thomas Le Roy résume la bulle et la date du II des ides de janvier, seizième année du pontificat de Jean XXII et il en copie un extrait supra (ch. 8). On trouve mention de la bulle dans les registres de Jean XXII (A. 40, f. 252a ; V. 101, ep. 429) : « Ecclesiam monasterii Montis s. Michaelis in periculo maris, O.S.B., Abrincen. di., in Nativitatis, Resurrectionis, Ascensionis Domini et Penthecostes ac quatuor beatissimae virginis festivitatibus, visitantibus centum eis vero qui per octavas festivitatum ipsarum visitaverint annuatim, quadraginta dies de injunctis eis poenitentiis videlicet festivitatum et octavarum ipsarum diebus relaxantur » (Mollat (éd.) 1929, 117, no 56148). [tt]. Voir aussi Les Curieuses recherches (ch. 27 § 31). Sur l'affaire du prieuré Saint-Clément de Jersey, voir notamment Simon 1967, 153-154. 356 HA, ch. 16 royMC, son predesseur[tu]. Et en outreMD donna d'autres lettres du mesme date, portant nouvelle exemption des payements pour le solde des gens de guerre, etc.[tv] Cet abbé après avoir ainssy longuement regy son monastere, il rendit l'esprit à nostre Seigneur qui l'avoit créé pour sa gloire, l'an 1334, le Vendredy saint à l'heure de sexte, le 19e jour du mois d'avril. Son corps fut conservé en cette eglise dansME la chappelle dediée à la très Sainte-Trinité, située dans une des croisée d'icelle, où on voit son tombeau dans la muraille, et son effigie relevée en bosse, et revestue pontificalement. L'honneur qu'on luy fit après son decestzMF, plus qu'à tous les autres jusque-làMG monstre assez le respect qu'on luy portoit en son monastere. Z f. 31[tw] ; λ f. 155[tx] ; R7[ty] ; R8[tz] ; Θ1[ua]. § 27 e De Nicolas 3 e du nom surnommé Le Vitrier, 27 e abbé regulier. ||f. [85r
] Sources du chapitre : Avranches BM, 214, uc 3, p. 197 ; Avranches BM, 215, f. 171r (Obituaire) ; Paris BNF, Français 18947, f. 58r-v (HG[ub], tr. 3, ch. 19[uc]). Passages parallèles : AD, H 15123 (perdu[ud]) ; AD, H 15124 (perdu[ue]) ; AN, P 19203, no 45523[uf] ; Avranches BM, 213, f. 181r (De abbatibus[ug]) ; Paris BNF, Latin 9215, no 90-33[uh]. « roy » ajouté dans la marge de gauche. | MD « exempta »
ffé après « outre ». | ME « en une chap » biffé et remplacé par « dans » dans l'interligne. | MF « de » biffé après « decestz ». | MG « jusque-là » ajouté dans l'interligne. MC [tu]. Les lettres royales montoises de Philippes VI sont perdues mais elles sont mentionnées dans les registres du Trésor des chartes : AN, JJ 66, f. 657, no 1484 et f. 659, no 1491-1496. Les confirmations par Philippe VI des chartes de fondation du monastères, sont datées de décembre 1334, au bois de Vincennes. On trouve également quatres chartes copiées d'après les originaux du Mont et du Livre blanc dans Paris BNF, Français 18949, p. 401-426 (copie du XVIIIe siècle), se présentant comme des vidimus et confirmations des lettres de Richard II (Carta quam comes Richardus 2° fecit Sancto Michaeli ante obitum suum, Fiscano et Carta de Verson), Gonnor (Carta de Britavilla et de Domno-Johanne), Robert (Carta quam fecit comes Robertus sancto Michaeli de omnibus quae dedit, et postque consulatum suscepit). Elles sont datées respectivement de décembre 1334 (pour la première) et octobre 1334 (pour les suivantes). Voir aussi Les Curieuses recherches (ch. 27 § 30[bis]) [tv]. Les lettres royales de Philippes VI sont perdues. Cependant on trouve dans les registres du Trésor des chartes des confirmations des droits et exemptions accordés par son prédecesseur : AN, JJ 66, f. 660, no 1497 et AN, JJ 66, f. 661, no 1498. Elles sont datées de décembre 1334, de Vincennes. On les trouve aussi copiées dans Paris BNF, Français 18949, p. 457-474, se présentant comme des vidimus et confirmation de lettres de Charles IV. Elles sont datées de 1334. David Fiasson en transcrit une : Paris BNF, Français 18949, p. 463-474 (Fiasson (éd.) 2012-2013, 201-204). Voir aussi Les Curieuses recherches (ch. 27 § 32). [tw]. Manuscrit perdu. [tx]. Manuscrit perdu. [ty]. Avranches BM, 215, f. 164v
Obituaire) : « XVIII kl [] Obiit Johannes de porta abbas hujus loci » [tz]. Avranches BM, 214, uc 3, p. 197 : « Johannes de porta XVIII KL maii » [ua]. Manuscrit perdu. [ub]. Sources citées par Jean Huynes : « nous auons leu la lettre faicte de cette reception » ; « La taxe est dans le martyrologe au dernier feuillet » ; « Les constitutions faictes en ce chapitre general sont en R8 p. 265 et es suiuantes » ; « cet accord est en cette Abbaye ». [uc]. Robillard de Beaurepaire (éd.) 1872, 186-187. [ud]. Delisle (éd.) 1910, 25-34, no III. [ue]. Delisle (éd.) 1910, 13-25, no IV. [uf]. L'an 1334, le 14e avril, Jean de la Porte ayant esté mis au tombeau, les religieux esleurent pour leur abbé Nicolas Le Vitrier, natif de la ville de ce Mont et prieur claustral de ce monastere. Son election faite, il alla Avranches où il fut beni par l'evesque95 en l'eglise cathedrale de Saint-André dudit Avranches. À son retour, il fut receu à la porte de l'eglise de tous les religieux en chappes, le 25e du mois de juin suivant, là, il jura sur les saintes evangiles, de garder le droitz de cette abbaye, de ne rien innover pour les constitutions d'iceluy. Il vescut environ 28 ans en cette charge d'abbé. Il se gouverna honorablement dans sa charge. L'anMI 1347, il fit dire par sentence que son monastere ne devoit point estre tenu à la solde de la garde de ce lieu, et par sa vigilance sur cette place durant les troubles. Il merita que Charles 5e, n'estant encore que dauphin et duc de Normandie, le fist le premier capitaine de cette garde96 (ce qui a esté long temps continué depuis à ces successeurs), par lettres patentes de l'an 1357[ui]. Il obtint l'an 1342 que le monastere ne payeroit rien aux gens de guerre, et le roy Philippes de Vallois, l'an 1346, deffendit par lettres patentes[uj] à tous les capitaines des places fortes du duché de Normandie de rien exiger sur le monastere, ny sujetz à iceluy, pour ces fins[uk]. L'an 1352, le roy Jean, ayant succéde à Philippes de Valloys à la couronne, donna une sauvegarde generalement pour l'abbaye et deppendance[ul]. Et le mesme, l'an 1355, donna autres patentes portant deffences à toutes personnes d' r rien sur ledit monastere, ny sujetz[um]. Il obtint pareillement de Charles, duc de Bretaigne, par patentes de l'an 1359, franchise pour la voiture des provisions de son monastere passantz par dessus les terres de son dit MJ duchéMK [un]. Il achepta plusieurs domaines pour le profit de son monastere ; l'an 133797, il acquist le moulin de Barne en Bretheville[uo], et l'an 1360, il achepta le fief de Bacilley et plusieurs rentes et domaines avec[up]. Illisible car dans la tranche. | MI « 137 | 134- » biffé après « l'an ». ajouté dans l'interligne. | MK « de Bretaigne » biffé après « duché ». MH [ui]. Voir aussi Les Curieuses recherches (ch. 28 § 17). [uj]. On trouve conservée dans Paris BNF, Français 18949, p. 474-479, no 15, la copie d'une lettre du vicomte de Coutances, datée de juin 1347, copiant deux lettres royales d'avril 1347 et novembre 1347 confirmant l'exemption ; voir aussi la transcription de David Fiasson (Fiasson (éd.) 2012-2013, « son dit » 205-206). [uk]. Voir aussi Les Curieuses recherches (ch. 28 § 7). [ul]. Voir aussi Les Curieuses recherches (ch. 28 § 12). [um]. Voir aussi Les Curieuses recherches (ch. 28 § 13). [un]. Voir aussi Les Curieuses recherches (ch. 28 § 18). [uo]. Voir aussi Les Curieuses recherches (ch. 28 § 4). [up]. Dans le De abbatibus (Avranches BM, 213, f. 95. C'est Jean de Hautefrine qui est évêque d'Avranches en 1334. 96. des capitaines au Mont Saint-Michel (Fiasson 2012-2013, 38-41). 97. MJ Voir l'analyse de David Fiasson sur la mise en place Dans l'inventaire des titres concernant l'abbaye du HA, ch. 16 Charles 5e, dit le Sage, donna au monastere 50 livres de rente qui luy estoient deuez sur le prioré de la Bloutiere, par lettres de l'an 1360[uq]. L'an 1343, l'abbé de Montbourg, dioecese de Constances, venant par devotion en ce monastere, unit spirituellement son abbaye à celle-cy[ur]. Nicolas Le Vitrier n'eut point seulement des faveurs des princes temporelz et seigneurs, mais aussy des souverains pontifes. L'an 1347, Clement 6e donna une bulle confirmative de tous les biens temporels et spirituels de son dit monastere[us]. Urbain 5 en donna une autre portant semble confirmationML, en date de 1362[ut]. L'an 1360, Innocent 6e, qui precedoit Urbain 5, donna des indulgences[uu] àMM perpetuité pour estre gaignée à plusieurs festes en cette eglise. Il travailla beaucoup à conserver cette place de la furie des Anglois, luy mesme faisoit la garde autour des murailles ne s'en fiant à personne. L'an 1350, le feu du ciel tomba sur son monastere et brusla de ce coup grande partie des bastimentz d'iceluy qu'il fit refaire et reparer au plus tost du mieux qu'il peut[uv]. ML « lan » biffé après « confirmation ». | MM « phe » biffé après « à ». 181r), il est en effet dit que Nicolas Le Vitrier acquiert le fief de Bacilly, mais l'acquisition n'est pas datée. Dans Les Curieuses recherches, Thomas Le Roy hésite entre 1348 et 1360 (ch. 28 § 20). Une lettre (originale) de l'abbé et du convent acceptant la vente que leur a faite Thomas Guynebaut est conservée dans le recueil Paris BNF, Latin 9215, no 90-33 ; elle est datée de 1346. [uq]. On trouve une copie de la lettre aux Archives nationales (AN, P 19203, no 45523). Elle n'est pas de Charles V mais de Charles II, roi de Navarre. Datée de juillet 1360, elle a été analysée par François de Beaurepaire : « Charles [le Mauvais], roi de Navarre, comte d'Évreux, donne à l'abbaye 50 l. de rente annuelle sur la fiefferme de la Bloutière [Manche], à recevoir des mains du fermier, le prieur de la Bloutière Par le roy, [signé] Moncel » (Nortier & Decaëns 2001, 347). Voir aussi Les Curieuses recherches (ch. 28 § 22). [ur]. La lettre d'union spirituelle est perdue, mais on trouve la mention de la lettre d'association, datée de 1343 dans Avranches BM, 214, uc 3, p. 198 : « Secuntur nomina societatum hujus monasterii quibus post combustionem ipsius litteras invenemus [] MCCCXLIII Abbatia sancte Marie de Monteburgi ». Voir aussi Les Curieuses recherches (ch. 28 § 6). [us]. La bulle originale est perdue. Dans Les Curieuses recherches (ch. 28 § 9), Thomas Le Roy résume la bulle et la date des ides de juin, quatrième année du pontificat de Clément VI. Nous ne trouvons aucune mention de cette bulle dans les registres de Clément VI. [ut]. La bulle originale est perdue. Thomas Le Roy la résume et la date du IV des calendes de mai, première année du pontificat dans Les Curieuses recherches (ch. 28 § 26). Nous n'en trouvons pas mention dans les registres d'Urbain V. En revanche on lit sous la date du III des ides de février, première année du pontificat : « @Gaufredo, priori claustrali monast. Sancti Michaelis in periculo maris, O.S.B., Abrincen. dioc., electio in abb. dicti monast. montis s. Michaelis, pastore carentis per obitum ext. Rom. cur. Nicholai, contra apost. reserv. facta, confirmatur. - In e. m. conventui monast. montis s. Michaelis; in e. m. universis vassallis dicti monast.; in e. m. episcopo Abrincen. » (Avril (éd.)????, no 7895). [uu]. La bulle originale est perdue. Dans Les Curieuses recherches (ch. 28 § 23), Thomas Le Roy résume la bulle et la date du VI des ides de janvier, huitième année du pontificat d'Innocent VI. Nous ne trouvons pas de mention de cette bulle dans les registres d'Innocent VI. [uv]. Voir aussi Les Curieuses recherches (ch. 28 § 10). Mont à Verson et à Bretteville, autrefois conservé aux Archives départementales de la Manche et édité au début du XXe siècle (Hunger (éd.) 1909, 35-37, no 23), sous 1466, le moulin de Barne est mentionnée : « Et Guillelmus Magni, burgensis Cadomensis, vendidit VI sextaria ordei ad festum sancti Michaelis, II capones ad Natale, XXX ova ad Pascha, percipienda super prefatum molendinum (Barnay) et super unum masnagium, cum suis pertinenciis apud Verson, juxta Johannem de Ponte, ex utraque parte. Actum anno Mo CCCo LXVIo. » (Hunger (éd.) 1909, 36). 359 L'histoire de l'Abbaye du Mont S aint-Michel au péril de l a mer, dio cese d'Avr anches en l a province de Normandie R8[uw]. R8 f. 265[uy]. Z f. 32[uz] ; R7[va] ; R8[vb] ; Θ1[vc]. Ce qui est le plus à deplorer, c'est que celuy qui prenoit tant de paine pour le temporel et pour les choses materielles de son monastere, n'en prenoit gueres pour les spirituelles, car de son temps la regularité n'yMN estoit presque point observéeMO. Pour y remedier, aussy bien qu'à tous les autres de la province, le pape Benoist ||f. [85v] onziesme, dit dousiesme, donna commission à Simon, abbé de Marmoustier, de visiter les monasteres des provinces de Normandie et de Tourraine, ce qu'il fit, et quand à celuy du Mont Saint-Michel, il ordonna l'an 1337, le 25e febvrier, qu'on envoiroit à Paris et à Caen, tous les ans, deux des religieux d'iceluy pour estudier, qui seroient entretenuz par les prieurés forins qu'il taxa chascun selon la valeur de son prieuré, les religieux estant très ignorant MP[ux]. Après cette visite, la mesme année au mois de juin, tous les abbéz des provinces susdites s'assemblerent dans la ville du Mans, au monastere de Saint-Pierre de la Cousture, où presiderent ledit abbé de Marmoustier et l'abbé de Saint-Florent près Saumeur, et firent quelques constitutions pour estre prattiquée dans chascun monastere. Nicolas Le Vitrier porta en ce chapitre general un roole de tout le revenu de son abbaye, par lequel il appert qu'il n'y avoit ordinairement, de ce temps-là, que quarante religieux conventuelsMQ, sans compter ceux qui estoient residentz aux prieurez. Mais tousMR ces soins ne profiterent point beaucoup à ce monastere, car peu de temps après, le mesme abbé transigea avec ses moines, savoir qu'il leur relaisseroit toutes et chascunes les offrandes qui tomboient en cette eglise, moyennant qu'il luy payeroit annuellement cent livres de penssionMS, et de là, la manse abbatialle a pris son origine, ayant esté le premier qui en ait jetté les premiers fondements[vd]. Enfin, il deceda l'an 1362, le 30e jour du mois d'octobre et fut enterré en ce Mont. § 28 e De Geffroy 2 e du nom, surnommé de Servon, 28 e abbé regulier. Sources du chapitre : Avranches BM, 213, f. 181r-v (De abbatibus) ; Paris BNF, Français 18947, f. 58v (HG[ve], tr. 3, ch. 20[vf]) ; Paris BNF, Français 18948, f. 59v. Passages parallèles : ; Avranches BM, 214, uc 3, p. 197[vg] ; Avranches BM, 215, f. 161r (Nécrologe[vh]). « n' » biffé et remplacé par « n'y » dans l'interligne. | MO « dans iceluy » biffé après « observée ». | MP « les religieux estant très ignorant » ajouté dans l'interligne. | MQ « en icelle » biffé après « conventuels ». | MR « -tes » biffé et remplacé par « s » en surcharge. | MS « ayant » biffé après « penssion ». MN Avranches BM, 214, uc 4, p. 367-368 : Réglement de Nicolas Le Vitrier (1337). [ux]. Un document, daté du 25 février 1338 [n. st.] par Léopold Delisle, était conservé autrefois aux Archives départementales de la Manche sous la cote AD, H 15123 ; avant sa destruction, Léopold Delisle en a édité une copie (Delisle (éd.) 1910, 13-25, no III). Le document fait état du temporel de l'abbaye du Mont Saint-Michel. [uy]. Avranches BM, 214, uc 4, p. 265 : il s'agit d'une copie de la bulle Summi Magistri de Benoît XII, émise en 1336. Les Constitutions sont à la suite de la bulle. [uz]. Manuscrit perdu. [va]. Avranches BM, 215, f. 171r (Obituaire) :
III kl [Nouembris] Obiit Nicolaus Le Vitrier abbas hujus loci ». [vb]. Avranches BM, 214, uc 3, p. [uw]. : « Nicolaus Le Vitrier III kl Nouembris » [vc]. . [vd]. Sur les cent livres de pension, voir aussi Les Curieuses recherches (ch. 28 § 10). On en trouve une allusion dans le De abbatibus (Avranches BM, 213, f. 181r) : « Tempore ipsius facta fuit compositio monete ». [ve]. Sources citées par Jean Huynes : « Z f. 32 et RR f. 181 et λ f. 159 et R7 et R8 et Θ1 » ; « RR f. 181 et R8 p. 339 » ; « LB f. 109 » ; « λ f. 160 » ; « En λ f. 162 il dit 1385 tous les autres disent mil trois cens quatre vingt six R7 et R8 et Θ1 et RR f. 181 ». [vf]. Robillard de Beaurepaire (éd.) 1872, 188-189 [vg]. « Gauffridus se Servone II KL Marcii » [vh]. « II KL [februari] Obiit Gauffridus de Servone abbas hujus loci » [vi]. Avranches BM, f. HA, ch Passages parallèles dans notre corpus : Caen BM, Mancel 195, ff. [82r-89v], p. 149-164 (ch. 29) ; Paris BNF, Français 18950, ff 85 p. 169 ch 16 § 28 Paris , Latin
f. 181[
vi
] ; λ f. 159[vj]. Clement 7e, l'an 1385, luy donna permission d'officier pontificalement jusques dans l'eglise cathedrale d'Avranches mesme, c'est pourquoy cet abbé fit faire une parfaitement belle mitre toute semée de perles et enrichie de belles pierres, laquelle se conserve encore au jourd'huy en ce lieu. Neantmoins la mesme année, ledit Clement 7e modifia 181r-v (De abbatibus) : « Predicto abbati N(icolao) le Vitrier immediate successit Gauffridus de Servone, prior hujus loci, in civitate Abrincensi oriundus, qui per XXIII annos et III menses decenter et honeste gubernavit. Turrim in qua est nova capella de gradibus edificari fecit. Tunc temporis acquisita fuerunt median(te) mon(asterii) peccunia plura feoda nobilia, videlicet feodum Duperier, feodum de Brece in Donuilla, feodum de la Meslereye, feodum de Craen in baronia de Sancto Paterno existencia, feodum de Poterel, feodum Viel et de Montmirel in baronia de Genecio, feodum de Pellaing in baronia de Ardevone, feodum de Touffou apud Abbatiolam et plures alii redditus in dictis baroniis. Eodem tempore ecclesia beati Michaelis cum ipsius adjacen(ciis) et dormitorium ab igne fulgureo combusta fuerunt, campane quasi plumbum liquefacte et, median(te) tempore predicto, reedificate || f. 181v et reformate per diligen(tiam) et procurationem istius abbatis. Anglici in rocha de Tumba Helen(ensi), per eosdem fortificata, capti fuerunt vi armorum et ab ea omnino expulsi. Maneria de Brion, de Genez et de Abbatiola, guerris adhuc uigentibus, destructa fuerunt. In quibus et in aliis locis, ut prefertur destructis iuxta posse reedificare fecit quamdiu vixit. Et tandem, senio fessus, dies suos feliciter complevit II K(a)l(endas) marcii, anno Domini millesimo trecentesimo octogesimo sexto » [vj]. Manuscrit perdu. [vk]. Les bulles émises par Urbain V sont déjà mentionnées par Thomas Le Roy supra (ch. 8). Les bulles originales de ce pape sont perdues mais on trouve dans les Registres d'Urbain V, mention de deux bulles en faveur du Mont Saint-Michel : la première sous la date du III des ides de février, première année du pontificat : « Gaufredo, priori claustrali monast. Sancti Michaelis in periculo maris, O.S.B., Abrincen. dioc., electio in abb. dicti monast. montis s. Michaelis, pastore carentis per obitum ext. Rom. cur. Nicholai, contra apost. reserv. facta, confirmatur. - In e. m. conventui monast. montis s. Michaelis; in e. m. universis vassallis dicti monast.; in e. m. episcopo Abrincen. » (Avril (éd.)???, no 7895) ; la deuxième sous la date du IX des calendes d'avril, première année du pontificat d'Urbain V. On en trouve mention dans les registres d'Urbain V, sous la date du IX des calendes d'avril : « Omnibus Christi fidelibus vere penitentibus et confessis qui ecclesiam monast. Montis s. Michaelis in periculo maris, O.S.B., Abrincen. dioc., miraculose, ut pie creditur, edificatam in loco circa quem mare fluit et refluit bis in die naturali, in Nativitatis, Circumcisionis, Epiphanie, Resurrectionis, Ascensionis et Corporis Domini ac Penthecostes, necnon in quatuor principalibus b. Marie, s. Michaelis et s. Johannis Baptiste festivitatibus ac in Omnium Sanctorum celebritate visitaverint, unus annus et 40 dies de injunctis eis penitentiis relaxantur » (Gasnault (dir.) 1964, 50, no 5367). Voir aussi Les Curieuses recherches (ch. 28 § 24 ; ch. 28 § 26 ; ch. 29 § 15). [vl]. Une bulle émise par Grégoire XI est mentionnée par Thomas Le Roy supra (ch. 8). On trouve dans les registres de Grégoire XI, sous la date du XVI des calendes de décembre, quatrième année du pontificat, une lettre de privilèges expédiée : « Omnibus vere penitentibus et confessis qui ad reparationem ecclesie monasterii Montis Sancti Michaelis in Periculo Maris, O.S.B., Abrincen. dioc. - que et monasterium ipsum de presenti anno, casu fortuito et propter validam tempestatem que ibidem ingruit, igne fulgureo combusta et quasi totaliter destructa extitit et ex fructibus et proventibus ipsius monast., quod valde depauperatum existit, eamdem eccl. et monasterium abque fidelium suffragiis nequeant reparari - usque ad decennium proxime futurum in singulis diebus decennii, indulgentia de tribus annis et tribus quadragenis, qui vero ab ipso decennio usque ad alios viginti anno extunc secuturos ad reparationem predictam manus porrexerint adjutrices, in singulis etiam viginti annorum predict. diebus quibus adjutrices manus porrexerint, de anno et quadraginta diebus conceditur, presentibus, quas mitti per questuarios districtius inhibetur, post ipsos triginta annos minime valituris. » (Avignon 192 f. 290v ; Vatican 285 f. 125v (A.M. Hayez, J. Mathieu, M.F. Yvan (éd.)????, no 33129)). [vm]. Voir aussi Les Curieuses recherches (ch. 29 § 29) 361 L'histoire de l'Abbaye du Mont S aint-Michel au péril de l a mer, dio cese d'Avr anches en l a province de Normandie son privilege, luy permettant seulement d'officier dans son abbaye et deppendances pontificallement, le tout à la sollicitation des evesques de Normandie[vn]. Il fut continué dans la charge de capitaine de la garde de ce Mont MT, par Charles 5, dit le Sage, et en obtint patentes l'an 1364[vo]. Il obtint aussy plusieurs autres lettres patentes pour l'utilité de son monastere et touchant le fait de la garde de ce lieu, tant dudit Charles 5e[vp] que des gouverneurs des places deMU Normandie. Il acquitz des deniers du monastere plusieurs biens au profit d'iceluy, particulierement les fiefz nobles de Perrier, en la parroisse du Loreur, de Brée et Domville, de La Mesleraye et de Craen en la baronnie de Saint-Paër, de Potrel, de Viel, de Montmirel en la baronnie de Genest, de Pelomb en la baronnie d'Ardevon[vq] et de Touffou au pays du Maine, près le prioré de l'Abbayette[vr]. Il MV fut pareillement donné et leguéMW quelques biens de son tempsMX par les gens pieux à son monastere et à ses deppendances, entre lesquellesMY madame Blanche, duchesse d'OrleansMZ, donna audit monastere 101 livres de rente sur la fieuferme de Bouillexii et sur les bois de L'Oillande, à la charge qu'on prieroit Dieu pour elle chascun jour[vs]. ||f. [86r] « l'an 1610 » biffé après « mont ». | MU « places de » ajouté dans l'interligne. | MV « luy » biffé après « il ». | MW « et legué » ajouté dans l'interligne. | MX « leguez » biffé après « temps ». | MY « fut » biffé après « lequelles ». | MZ « qui » biffé après « Orleans ». MT [vn]. Voir aussi Les Curieuses recherches (ch. 29 § 32) [vo]. L'original a disparu. Une copie est conservée à l'Inspection du Génie. L'analyse en est donnée par Michel Nortier (Nortier & Decaëns 2001, 79) : « 1364, 18 octobre – Paris : Charles V accorde aux religieux du M. St M. "qu'en lad. église et fort d'icelle n'ait et ne soit autre capitaine ny gouverneur que l'abbé d'icelle église s'il ne plaisoit et plaist aud. abbé et couvent royal" ». Une autre copie est conservée dans Paris BNF, Français 18949, p. 506-511, no 19 (Fiassson (éd.) 2012-2013, 215216). Thomas Le Roy en donne un extrait supra (ch. 15 § 4). Voir aussi Les Curieuses recherches (ch. 29 § 4) [vp]. On trouve plusieurs mentions d'autres lettres de Charles V. Une lettre datée du 9 octobre 1364 qui unit le Mont à la Couronne de France est mentionnée par Thomas Le Roy au chapitre 7 de ce texte et dans Les Curieuses recherches (ch. 29 § 3). Notre auteur en copie un extrait. La fief-ferme est appelée Bouillon et aux vicomtes de Coutances et d'Avranches la grâce qu'il a octroyée aux religieux en leur permettant de lever l'imposition de 6 deniers pour livre sur tous les marchands séjournant sur leurs terres, de quelque personne qu'ils soient sujets ». Thomas Le Roy mentionne celle-ci dans Les Curieuses recherches (ch. 29 § 7). Dans Les Curieuses recherches toujours, Thomas Le Roy en cite une également datée du 27 décembre 1364 (ch. 29 § 5), une de 1364 (ch. 29 § 6), une de 1368 (ch. 29 § 14). [vq]. Voir aussi Les Curieuses recherches (ch. 29 § 24) [vr]. Tout les informations contenues dans ce paragraphe sont données dans le De abbatibus (Avranches BM, f. 181r) : « Tunc temporis acquisita fuerunt median(te) mon(asterii) peccunia plura feoda nobilia, videlicet feodum Duperier, feodum de Brece in Donuilla, feodum de la Meslereye, feodum de Craen in baronia de Sancto Paterno existencia, feodum de Poterel, feodum Viel et de Montmirel in baronia de Genecio, feodum de Pellaing in baronia de Ardevone, feodum de Touffou apud Abbatiolam et plures alii redditus in dictis baroniis ». Voir aussi Les Curieuses recherches (ch. 29 § 34). [vs]. On trouve une partie des informations de ce paragraphe dans l'obituaire montois (Avranches BM, 215, f. 160r) : « Obiit Bla(n)cha ducissa Aurelian(ensis) q(ui) nob(is) dans Les Curieuses recherches (ch. 29 § 30). Il fut fort splendide dans ses comportementz. Ce fut luy qui, pour la plus grande partie, institua et obligea les nobles demeurantz dans les terres deppendantes de son abbaye de fournir d'hommes arméz de casqueNA cuirasse et pertuisanne et espée, au jour et feste de la dedicace de Saint Michel, et aussy en temps de guerre, pour garder et conserver la place, lesquels il voulut estre condamnéz à 3 livres d'amende en cas de manquement, ce qui ce pratique encore à present annuellement. Il luy arriva une grande affliction l'an 1374, le 8e jour de juillet, ayant veu le foudre tomber sur son monastere qui reduisit l'eglise, les dortoires et autres logements d'iceluy en cendres, comme aussy la ville. Il y fit travailler pour les reparer avec toute la diligence qu'il peut, et fit faire et construire de nouveau une petite chappelle qui est à present sans autel, appellée la chappelle de Sainte-Catherine, autrement la chappelle des degrez, à cause qu'elle est sittuée au bas des degrés du Sault Gaultier du costé de midy, sous les logements abbatiaux[vv]. L'an 1374, il fut prié de la part de Thyphaine de Raguenel, fille du viconte de la Bellierce, de se transporter à Dinan pour la voir au lit, malade, proche de sa fin, et de faire ses obseques après son decedzNB ; ce qu'il fit, officiant à la pontificalle à l'enterrement de cette dame, puis s'en revint par Saint-Malo. La cause pourquoy elle avoit prié cet abbé plustost que d'austres, c'est qu'elle avoit longuement demeuré en ce Mont Saint-Michel. Après que messire Bertrand du Guesclin, son mary, qui par son courage merita d'estre connestable de France et gouverneur de cette province de Normandie, eut prins la route d'Espagne avec une grosse armée pour le roy de France, son seigneur, elle yNC vintND demeurerNE et y fit bastir une belle maison en la ville dudit Mont, les fondements et ruines de laquelle se voient encore aujourd'huy et s'appellent le chasteau de dame Thyphaine. Elle y apporta cent mille florins que son mary luy avoit donné avant son départNF, lesquels elle distribua jusques au dernier à tous les pauvres soldatz et gens infortunés dans les guerres, les invitant d'y retourner, et d'aller voir son mary et s'enrrooler sous ses enseignes. λ f. 160[vu]. Les manuscriptz I, λ f. 150[vw], etc. D'Argentray, livre 7 chapitre 12[vx]. NA « et » biffé après « casque ». | NB « après son decedz » ajouté dans l'interligne. | NC « y » ajouté dans l'interligne. | ND « y » ajouté dans l'interligne après « vint », puis biffé. | NE « longtemps » ajouté dans l'interligne après « demeurer », puis biffé. | NF « et » biffé après « depart ». | NG « fust » biffé et remplacé par « très » dans l'interligne. | NH « à dresser et » biffé après « continuellement ». ded(it) C I L. XC tur(nensis) redditus et co(n)firmari fecit & [] hac die an(n)iuersariu(m) solemne faci(mus) & q(ua) l(ibet) die 1 missa(m) i(n) capella(m) b(ea)ti Thome m(arty) ris celebramus ». Voir aussi Les Curieuses recherches (ch. 29 § 30). [vt]. Manuscrit perdu. [vu]. Ce
manuscrit
est
perdu mais l'incendie est relaté également dans le De abbatibus (Avranches BM, 213, f. 181r-v) : « Turrim in qua est nova capella de gradibus edificari fecit. [] Eodem tempore ecclesia beati Michaelis cum ipsius adjacen(ciis) et dormitorium ab igne fulgureo combusta fuerunt, campane quasi plumbum liquefacte et, median(te) tempore predicto, reedificate || f. 181v et reformate per diligen(tiam) et procurationem istius abbatis. ». [vv]. Voir aussi Les Curieuses recherches (ch
. 29 § 28). [vw]. Manuscrit perdu. [vx]. D'Argent
ré
1618
, 513
-520 l. 7, ch. 12 « Révolte de toute
la Castille deuers le Roy Dom Pedro apres la victoire de Nadres, Bertrand du Guesclin prisonnier mis à rançon »). 363 L'histoire de l'Abbaye du Mont S aint-Michel au péril de l a mer, dio cese d'Avr anches en l a province de Normandie avant qu'il fust party. Il est à croire toutefois que le plus grand charme qui l'attiroit en ce Mont c'estoit la devotion à l'archange saint Michel, lequel estant chef de la milice coeleste pouvoit beaucoup dans la terrestre et partant luy conserver son mary[vy]. λ f. 182[vz] ; RR f. 181[wa]. Cet abbé fit plusieurs autres choses pour l'utilité de son monastere qui seroient trop longue à raconter maintenant, et finalement il mourut l'an 1386, le dernier jour de febvrier, et fut enterré en l'eglise de cette abbaye. § 29 e De Pierre Le Roy 98, 29 e abbé regulier
.
Sources du
chapitre
:
Avranche
s BM, 211,
ff. 79r
-80
v
[
wb
] ;
Avranches BM
, 212,
ff. 48v
-49
r ; Avranches BM, 213, ff 154r-162r (Inventaire des reliques de 1396[wc]) ; Avranches BM, 213, f. 181v (De abbatibus) ; Avranches BM, 214, uc 3, p. 197 ; Avranches BM, 214, uc 3, p. 198 (Inventaire des abbayes unies
à celle du Mont Saint-Michel)
;
Avranches BM
,
214
,
uc
4,
p. 344
;
Avranches BM
,
214
,
uc
4,
p. 350
;
Avranches BM
,
215
, f
.
160v (
Ob
ituaire
)
;
Paris B
NF
, Français 18947
,
ff
. 58v-60r
(HG[wd],
tr.
3,
ch
. 21[we]) ;
Paris
BNF,
Français 18
948, ff. 59v-61r. Passages parallèles : – Passages parallèles dans notre corpus : Caen BM, Mancel 195, ff
[89v-99v], p. 164-184 (ch. 30) ; Paris BNF, Français 18950, ff. [86r-88r], p. 170-174 (ch. 16 § 29) ; Paris BNF, Latin 13818 ø. RR f. 181[wf] ; Δ f. 48[wg]. En ψ f. 30[wh] et II10[wi] les gestes de cet abbé sont inserée. L'an 1386, le dernier de febvrier, Geffroy de Servon estant enterré, les religieux de ce ||f. [86v] de ce Mont assemblez en chapitre esleurent Pierre Le Roy, natif d'Orval, dioecese de Constance, très fameux docteur en decret, abbé de Laissé au mesme dioecese, lequel auparavant avoir gouverné le monastere de Saint-Taurin d'Evreux. Après qu'il eut sceu cette election, il renonça à son abbaye de Laissé et vint aussy tost en ce Mont99, où ayant reconnu l'estat du monastere et la portée des religieux, il commença àNI leur NI « lors » biffé après « à ». [vy]. Voir aussi Les Curieuses recherches (ch. 29 § 20). [vz]. Manuscrit non identifié. [wa]. Avranches BM, f. 181r-v (De abbatibus) : « Et tandem, senio fessus, dies suos feliciter complevit II K(a)l(endas) marcii, anno Domini millesimo trecentesimo octogesimo sexto ». [wb]. Reulos (éd.) 1967, 203-209. [wc]. Dubois (éd.) 1967, 501-584 (édition et étude). [wd]. Sources citées par Jean Huynes : « RR f. 181 et ∆ f. 48 » ; « ψ f. 30 et II10 nous lisons les gestes de cet Abbé qui ont esté adjoustez a la fin du dit livre » ; « II10 f. 12 » ; « nous lisons de ces constitutions en R8 f. 344 et 350 » ; « en λ f. 171 » ; « LB f. 104 » ; « ψ f. 33 » ; « les bulles et Lettres sont en ce monastere et en laut LB ff. 15 16 17 132 157 » ; « ψ f. 34 » ; « LB f. 30 » ; « LB f. 20 » ; « Il est dans les archives » ; « LB f. 155 » ; « ψ f. 35 » ; « Z f. 33 et II10 f
.
12 et R7 et R8 et Θ1 ». [we]. Robillard de Beaurepaire (é
d.)
1872, 189
-194. [wf]. Avranches BM, 213, f. 181v (De abbatibus) : « Anno Domini millesimo tri[n] centesimo octogesimo VIo suscepit regimen istius abbatie Petrus Regis, abbas de Exaquio, et rexit eam XXV annos. Fecitque multa bona huic monasterio, videlicet portam hujus abbatie, infirmariam, balliviam et edificia ex illo latere a Sancta Katherina usque ad Bellam Caram, lignum chori, libros multos et multa alia bona ; uniceque fec prioratus, videlicet de Sancto Paterno, de Brione, de Balan, de Genez et de Sancto Melorio. Anima ejus requiescat in pace ». [wg]. Avranches BM, 212, ff. 48v-49r : « En lan mil iii C iiii xx vi Pierres || abbe commenca a gouuerner cest monstier lequel fict faire toute la porte de cette abbaye et tout le coste de deuant la ville excepte saincte Katharine qui auoit este faicte durant la vie de son predecesseur » [wh]. Manuscrit perdu. [wi]. Avranches BM, 211, ff. 79r-80v (Gesta Petris Regis) : « Anno domini 98. Sur l'abbatiat de Pierre Le Roy, voir notamment Reulos 1952-1953, 914-992 et Reulos 1967, 191-196. 99. lireNJ le droit canon, leur en faisant journellement luy-mesme leçon y estant, et en establit d'autres qui le feroient, estant quelques fois absent. Il establitNK pareillement un maistre dans ledit monastere pour monstrer les principes de grammaire aux plus jeunes religieux et moines avancez, et pour ce, il acheta quantité de bons livres100. Parmy l'estude des sciences humaines et divines, il prit grand soin de la regularité. Il fit pour ces fins plusieurs belles constitutions[wl] qui sont encore en estre dans un livre en ce monastere et les fit garder tant qu'il peut. Et pour à quoy parvenir il eut soin que personne ne manquast de rienNL, faisant distribuer à chascun ses necessitéz selon la regle[wm]. Il entretenoit les bastimentz du monastere, eglise et lieux reguliers en très bon estat, il fit faire plusieurs beaux et riches ornements, fit decorer les autels d'une quantité de belles images qu'il fit venir de Paris. L'an 1389, il fit oster les chaires du choeur estant trop vielles et fit faire celles qu'on y voit ce jourd'huy, d'une admirable structure et fitNM sculpturer l'escusson de ses armoiries en uneNN des formes d'icelles, mais comme elles sont en bois et qu'on ne leNO trouve point ailleurs avec des peintures, aussi nous est-il impossible de les bien blasonner, veu mesme qu'on ignore à present en ce monastere la maison d'où il avoit sorti comme de plusieurs autres abbez jusques à luy[wo]. R8 f. 344[wj] et 350[
w
k
]. λ f. 171[wn]. L'escusson donc estNP composé, de pals au franc quartier de Bretaigne, c'est-à-dire d'hermine ; à la cottice denchée, ou canelée regnant sur le tout ; ça esté le premier des abbez et autres qui ayent fait mettre leur armoiryes en ce monastere[wp]. « leur lire » ajouté dans l'interligne. | NK « fit » biffé et remplacé par « establit » dans l'interligne. | NL « deut en » biffé après « rien ». | NM « apposer » biffé après « fit ». | NN « f » biffé après « une ». | NO « le » ajouté dans l'interligne. | NP « ainsNJ millesimo trecentesimo octogesimo quinto, mense februario, die ultima, vacavit monasterium istud Montis per mortem domini Gaufridi de Servone. Ad cujus regimen fuit electus reverendus pater dominus Petrus Regis, decretorum doctor famosissimus, de Aurea valle oriundus in pago Constantiensi, qui antea praefuerat monasterio Sancti taurini Ebroicensis, et tunc praeerat monasterio de Exaquio. [] Sciendum igitur quod satis cito post adventum suum ad dictum monasterium cognito statu ipsius monasterii tam in personis subjectorum quam alias ipse incepit legere jura canonica fratribus suis certis horis quibus commodius circa haec vacare potuit ut ipsi circa hujusmodi studium occupati fugato otio inde possent fieri magis scientiffici et litterati aliquos etiam ad continuendam lecturam in sui absencia et alios ad instrumendum juvenes in grammatica deputavit. Item multos libros quam plurimum preciosos tam juris divini canonici et civilis quam alios acquisivit []. » (Reulos (éd.) 1967, 202-209). [wj]. Avranches BM, 214, uc 4, p. 344 (acte de Pierre Le Roy). [wk]. Avranches BM, 214, uc 4, p. 350 (acte de Pierre Le Roy). [wl]. Les Règlements de Pierre Le Roy sont conservés dans Avranches BM, 214, uc 4, p. 363. [wm]. Les informations de ce paragraphe sont tirées de la Geste de Pierre Le Roy (Avranches BM, 211, ff. 79r-80v) : « Item ad subveniendum necessitati religiosorum ordinavit ignem fiendum in parvo dormitorio a festo omnium sanctorum usque ad Pascha pro quo et etiam pro scutellis habendis et emendis pro necessitate conventus cum opus esset acquisivit plures redditus, ut plenius patet scripturas super hoc factas in libro martirologii dicti monasterii » (Reulos (éd.) 1967, 204-205). [wn]. Manuscrit perdu. [wo]. Voir aussi Les Curieuses recherches (ch. 30 § 9). [wp]. Voir aussi Les Curieuses recherches (ch. 30 § 37). 100. Parmi les livres acquis au temps de l'abbé Pierre Le Roy, Michel Reulos cite les manuscrits aujourd'hui côtés Avranches BM, 192 ; Avranches BM, 65 ; Avranches BM, 20 ; Avranches BM, 6 ; Avranches BM, 13 ; Avranches BM, 165 ; Avranches BM, 56 ; Londres (cf. Reulos 1952-1953, 916-917). L'histoire de l'Abbaye du Mont S aint-Michel au péril de l a mer, dio cese d'Avr anches en l a province de Normandie L'eglise ainsy ornée, il fit rebastir le haut de la tour appellée des Corbins qui estoit chute ; c'est un gros escalier ainssyNQ nommé dessendant depuis le haut de l'edifice jusques au bas. Et depuis cette tour jusques à Belle Chaire, sous laquelle est le corps de garde, il fit bastir la forte muraille qu'on y voit[wq], à costé de laquelle il avoit fait mettre des cheminéesNR croisées et autres attentes pour faire les infirmeries du monastere qui ont demeuré ainssy depuis[wr]. Auprès de laquelle muraille forte, il fit faire le dongeon avec deux fortes tours, au-dessus des degrez en entrant audit corps de garde, qui est une des belles pierres et des plus fortes qu'on puisse voir. De l'autre costé de Belle Chaire, il fit bastir la forte tour quarrée q'un nomme La Perrine, du nom derivé de cet abbé Pierre, et tant dans cette tour que dans ledit dongeon, il fit racommoder plusieurs chambres pour la demeure de ses soldatz[ws], car il estoit aussy capitaine de ce Mont, Charles 6e luy en ayant fait expedier lettres patentes l'an 1386, le 16e jour de juin suivant après son election de la charge d'abbé[wt]. Outre cela, il fit bastir tous les corps de logis qu'on voit depuis cette tour Perrine jusques au lieu où est la cuisine de l'abbé (excepté la petite chappelle de Sainte-Catherine que son predecesseur avoit fait faire, comme il a esté dit). Une partie, sçavoir ce qui se voit depuis jusques à la Bailliverie, il la destina pour la demeure des religi infirmes. Et en l'autre partie, il fit loger le baillif ou procureur du monastereNS, qui estoit aussy religieux. Il s'y logea pareillement. Il fit faire plusieurs bastimentz et belles granges dixmeresses dans les metairies et deppendances de son monastere, mettant ordre à tout. Ce fut luy le premier qui fit separer le dortoir en cellules particulieres, jusques à ce temps, les religieux avoient leurs couches les unes contre les autres, comme es hopitaux[wu].
| 53,582
|
html2002GRE10220_1
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 6,405
| 10,456
|
Ordre magnétique et distribution de charge dans des composés à base de terres rares: ordre multipolaire et ”déplacements d’échange” Sorana Emilia Luca
To cite this version: Sorana Emilia Luca. Ordre magnétique et distribution de charge dans des composés à base de terres rares: ordre multipolaire et ”déplacements d’échange”. Matière Condensée [cond-mat]. Université Joseph-Fourier Grenoble I, 2002. Français. NNT :. tel-00002356 HAL Id: tel-00002356 https://theses.hal.science/tel-00002356 Submitted on 4 Feb 2003
HAL
is
a multi-disciplinary open access archive for the deposit and
disse
mination of
scientific research
documents, whether
they are published or not
.
The documents
may
come from
teaching and
research
institutions
in
France or abroad, or
from public or private research
centers. L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français
ou
étrangers,
des laborato
ires
publics ou privés
. THESE présentée
par Sora
na Emilia
LUCA
Pour obtenir le titre
de DOC
TEUR DE L
’UNIVERSIT
E
JOS
EPH FOURIER GRENOBLE 1 ET DE L’UNIVERSITE BABESBOLYAI CLUJNAPOCA Spécialité : PHYSIQUE Ordre magnétique et distribution de charge dans des composés à base de terres rares : ordre multipolaire et « déplacements d’échange » Soutenue le 5 décembre 2002 Composition du jury:
P
résident
G. CHOUTEAU LCMI Grenoble Rapporteurs : B. COQBLIN LPS ParisSud V. POP UBB ClujNapoca R. M. GALERA Lab. Louis Néel E. BURZO UBB ClujNapoca M. AMARA Lab. Louis Néel
Directeurs de thèse : Invité: Thèse en cotutelle préparé au Laboratoire Louis Néel CNRS Grenoble, France et au Laboratoire de Physique
du
Solide
de l’
Université BabesBolyai ClujNapoca, Roumanie
à
ma
famille
Remerciements
Cette thèse a été préparée au sein du Laboratoire Louis Néel à Grenoble. Je tiens à remercier à l’équipe de direction, Mme. Claudine Lacroix et M. Yves Souche, de m’avoir accueilli pendant ces trois années. Je tiens également à remercier à toutes les personnes qui ont fait partie de mon jury : M. Gérard Chouteau de m’avoir fait l’honneur d’accepter la présidence de mon jury, M. Bernard Coqblin et M. Viorel Pop, qui, malgré leurs emplois du temps chargés, ont assuré le rôle de rapporteurs de ce travail et pas en derniers temps à mes directeurs de thèse Mme. Rose Marie Galéra, M. Mehdi Amara et M. Emil Burzo. Je tiens à exprimer ma profonde gratitude à Rose Marie Galéra et Mehdi Amara, mes deux directeurs de thèse français, qui m’ont encadré jour après jour pendant mon séjour à Grenoble. Je leur suis fort reconnaissante pour tout ce que j’ai appris à côté d’eux, pour leur esprit critique et leur vigilance, pour leur support moral et scientifique ; je sais que je les ai fort mal récompensé. J’espère qu’ils ne vont pas garder un mauvais souvenir. Je suis reconnaissante à Prof. Emil Burzo pour m’avoir initié dans le « monde » du magnétisme, d’avoir contribué à ma formation universitaire dans mon pays d’origine et de m’avoir donné l’opportunité de réaliser ce travail, ici, à Grenoble. Je n’oublie pas l’équipe technique du laboratoire, qui m’a toujours soutenue et aidé. Richard Haettel, je lui remercie pour son amitié, pour son support moral et technique (je pense qu’il va toujours se souvenir d’un certain creuset en tantale......). Eric Eyraud et Didier Dufeu, les deux experts des magnétomètres, je vous remercie pour votre amabilité et votre aide. Je remercie aussi aux collaborateurs : Françoise Givord pour son étroite collaboration à la réalisation de ce travail, Amir Murani qui m’a fait profiter de ses connaissances sur les neutrons, Jean-François Bérar et Carsten Detlefs qui m’ont aidé à réaliser les expériences à l’ESRF et pas dernièrement à Brigitte Beneu pour son amabilité et sa disponibilité à mon égard. Je remercie à toutes les personnes qui ont témoigné leur amitié pendant ces trois années. Je dois beaucoup à tous mes amis roumains qui ont été pour moi un support continu. Je ne vais pas citer vos noms, mais je suis sure que vous vous reconnaissez dans ces mots Pour finir je veux exprimer ma gratitude la plus profonde à ma famille pour m’avoir toujours soutenu et avoir cru en moi. Ce manuscrit leur est dédié. Table de matières Introduction 1 Chapitre I Théorie et formalisme
3 I.1. Termes à un ion 3 I.2. Termes à deux ions 7 I.3. Le champ moyen périodique 9 I.3.1. L’échange bilinéaire 9 I.3.2. Couplages quadrupolaires 10
Chapitre II Conséquences de l’ordre magnétique sur la distribution de charge 4f
II.1. Multipoles 4f et ordre magnétique 13 13 II.1.1. Structure multipolaire 4f induite par une structure magnétique de haute symétrie 14 II.1.1.1 Moments magnétiques selon des axes quaternaires, binaires ou ternaires 18 II.1.1.2 L’effet magnétoélastique : la magnétostriction spontanée 19 II.2. Déplacements d’échange et ordre magnétique II.2.1 Relation entre les déplacements et la structure magnétique 21 22 II.2.1.1 Termes correctifs en énergie 23 II.2.1.2 Force et champs moyens de déplacement 25 II.2.1.3 Influence thermodynamique du déplacement 26 II.2.2 Traitement en champ moyen périodique II.2.2.1 Séries de Fourier du champ de déplacement r II.2.2.2 Propriétés du vecteur de polarisation Γ kr 27 27 28 II.2.3 Application aux déplacements pour des vecteurs d’onde magnétiques <1/4 1/4 1/2> 29 r II.2.3.1 Définitions des polarisations à partir du vecteur Γ kr 30 II.2.3.2 Cas des structures à moments d’amplitude constante 32
Chapitre III Méthodes expérimentales 36
III.1. Mesures d’aimantation 36 III.2. Mesures de magnétostriction 36 III.3. Diffraction des rayons X et des neutrons 37 III.3.1. Diffraction des rayons X 39 III.3.1.1 Diffusion Thomson multipolaire 40 III.3.2 Diffraction des neutrons 45 III.3.3 Intensité de diffraction expérimentale 46 III.3.3.1 Traitement des diagrammes de diffraction des rayons X ou de neutrons par poudre III.3.4 Les installations expérimentales 47 48 III.3.4.1 Diffraction des rayons X 48 III.3.4.2 Diffraction des neutrons 50 III.4. Diffusion inélastique des neutrons III.4.1 Les installations expérimentales 51 52
Chapitre IV Etu
de la diffraction multipolaire des rayons X dans des composés de la série RMg 55 IV.1. Dans un système à base de terre rare, particulièrement en symétrie cubique, ce sont les degrés de liberté orbitaux associés à l'asphéricité de la couche 4f qui sont les premiers engagés lors d'une transition vers un état d'ordre magnétique. Les moments multipolaires qui apparaissent modifient l'énergie d'interaction avec le réseau cristallin, mais également celle des couplages entre paires d'ions terre rare. L'interaction avec le réseau est notamment responsable des phénomènes de magnétostriction. On constate cependant que l'absence de moment orbital n'interdit pas de telles manifestations magnétoélastiques dans les composés du gadolinium. C'est donc que les seules interactions d'échange peuvent être suffisantes pour modifier la distribution de charge du cristal, en induisant des déplacements relatifs des ions magnétiques. Pour étudier ces phénomènes de redistribution "magnétique" de la charge, nous avons choisi des systèmes tirés de deux séries de composés de terre rares: RMg et RB6. Les deux éléments, NdMg et TbMg, choisis parmi la première série sont connus pour s'ordonner magnétiquement selon des motifs multiaxiaux. L'asphéricité 4f doit alors présenter une alternance de site à site qui modifie la périodicité de charge du cristal. Puisqu'il y a changement de périodicité, cela devrait être directement observable par diffraction des rayons X. Par ailleurs, les structures magnétiques de ces deux systèmes préservent le site de la terre rare en tant que centre d'inversion. Ceci interdit une redistribution de la charge selon le second mode évoqué plus haut, c'est-à-dire par des déplacements relatifs des ions terres rares. Les 1 deux systèmes, NdMg et TbMg, réalisent ainsi des modèles expérimentaux pour l'étude conséquences d'un ordre magnétique sur l'asphéricité 4f. Le seul système étudié parmi la seconde série, GdB6, se distingue nettement des deux précédents par l'absence de contribution orbitale aux éventuels changements dans la distribution de charge. Ce composé présente cependant des propriétés singulières qui semblent indiquer la formation d'ondes de déplacement d'échange. Il est donc bien adapté à l'étude du second mode de redistribution magnétique de la charge; les déplacements relatifs des ions 4f dus aux interactions d'échange. Du point de vue expérimental, il faut ranger en deux catégories les modifications de la distribution de charge : celles qui préservent la périodicité de la phase paramagnétique et se manifestent par des effets macroscopiques de magnétostriction. celles qui introduisent une nouvelle périodicité de charge, sans manifestation macroscopique directe. Les premières sont accessibles par des moyens relativement classiques de dilatométrie tels ceux disponibles au laboratoire LouisNéel. Pour l'observation des secondes, le moyen le plus approprié est la diffraction des rayons X. Pour utiliser cet outil, il a fallu formuler la relation entre les quantités décrivant les changements de la distribution et les amplitudes de diffusion. Ces dernières sont faibles en absolu, ce qui oblige à recourir à des sources X à haut flux; l'ESRF en ce qui concerne les études présentées ici. Par ailleurs, comme pour toute investigation des phases ordonnées de composés magnétiques, il a été fait appel aux habituelles techniques de magnétométrie et de diffusion des neutrons. Le présent manuscrit est organisé en cinq chapitres. Le premier comprend un court rappel théorique des propriétés des composés intermétalliques à base de terres rares. Le deuxième est consacré à l'analyse des conséquences de l’ordre magnétique sur la distribution de charge d'un cristal. Le troisième chapitre est une présentation des techniques expérimentales utilisées pour la caractérisation des systèmes étudiés. Les deux derniers chapitres sont consacrés à la présentation des études effectuées sur des composés des deux séries RMg et RB6. 2
Chapitre I – Théorie et formalisme Chapitre I Théorie et formalisme
Dans les systèmes à base de terres rares, les électrons de la couche 4f, incomplète, sont la source des propriétés magnétiques. Dans ces systèmes, les effets du champ électrique cristallin (CEC) sont plus petits que le couplage spin-orbite. Ce dernier détermine le multiplet fondamental J M J, qui pour la plupart des terres rares et aux températures usuelles, suffit à décrire la couche 4f. L’état de la couche 4f résulte des interactions avec son environnement : termes à un ion (CEC, Zeeman,...) et termes à deux ions (échange bilinéaire, couplages quadrupolaires,...). Les propriétés magnétiques, magnéto-élastiques et quadrupolaires des ions terres rares dans les composés intermétalliques sont usuellement décrites par l’hamiltonien suivant : H = HCEC + HZ + HB + HQ + HME1 (I.1) où les différents termes représentent, respectivement : le terme de champ électrique cristallin, le terme de Zeeman, le terme d’interaction d’échange bilinéaire, le terme quadrupolaire et le terme magnétoélastique à un ion. I.1. Termes à un ion
Le terme de champ électrique cristallin : HCEC Un atome magnétique, appartenant à un réseau cristallin, est soumis à l’action électrostatique des électrons et ions l’entourant. L’influence de son environnement s’exprime par le terme de champ électrique cristallin (CEC). Il peut s’écrire comme l’énergie r électrostatique des électrons 4f dans le potentiel V ( r ) crée par son environnement : charges électriques des ions du cristal et électrons délocalisés. Ce potentiel a de fait la symétrie du site considéré. 3 Chapitre I – Théorie et formalisme
r r HCEC = ∑ qiV ( ri ) = −e∑ V ( ri ) i (I.2) i r où ri est le vecteur de position pour l’électron i de la couche 4f. Cet hamiltonien peut être développé en harmoniques sphériques Yl m (θ i, φi ) [1]: HCEC = −e∑∑ ril i l l ∑ A Y (θ,φ ) m =− l m m l l i i (I.3)
Le nombre des coefficients Alm qui intervient dans le développement est limité par la symétrie du groupe ponctuel du site qui laisse l’hamiltonien invariant. L’inconvénient de cette forme est qu’elle fait appel à la position des électrons et donc, qu’elle exige un retour aux fonctions d’ondes à un électron. La méthode des opérateurs équivalents de Stevens, permet d’exprimer l’hamiltonien en fonction des seuls opérateurs Jx, Jy et Jz [1]. En symétrie cubique, qui sera la seule considérée dans ce mémoire, ce développement compte deux termes : HCEC = B4 ( O40 + 5O44 ) + B6 (
O
60 − 21O64 ) =
=
A4 r 4 β J ( O40 + 5O44 )
+
A6 r 6 γ J ( O60 − 21O64 ) (I.4) les Olm sont les opérateurs de Stevens, βJ et γJ sont les coefficients de Stevens d’ordre quatre et six respectivement pour l’ion considéré. A4 et A6 sont les paramètres du CEC et r 4 r6 et représentent les intégrales radiales d’ordre quatre et six respectivement. Dans la formulation de Lea et al. [2] cet hamiltonien devient:
HCEC = W (1 − x ) 0 Wx 0 O4 + 5O44 ) + O6
− 21O64 ) ( ( F4 F6 (I.5) où W est un facteur d’échelle et x est la proportion relative des termes d’ordre quatre et six du CEC. Le champ électrique cristallin lève partiellement la dégénérescence du multiplet fondamental J M J. 4 Chapitre I – Théorie et formalisme
Le terme Zeeman : HZ Il représente le couplage de Zeeman entre le moment magnétique 4f, et le champ magnétique interne, c’est-à-dire le champ appliqué corrigé des effets démagnétisants: rr r r HZ = MH int = g J μB H int J (I.6) Le terme magnéto-élastique à un ion : HME1 Ce terme reflète l’abaissement de la symétrie du site de terre rare, relié à la déformation du cristal. Il s’écrit à l’aide des représentations irréductibles du groupe ponctuel, en prenant en compte les composantes ε υμ du mode de déformation et les opérateurs de Stevens [3]. En symétrie cubique, en limitant le développement aux termes d’ordre deux des opérateurs quadrupolaires de Stevens, son expression est [7] : (
) HME1 = − Bγ ε1γ O20 + 3ε 2γ O22 − Bε ( ε1ε Pxy + ε 2ε Pyz + ε 3ε Pzx ) + Eel (I.
7) Les B μ sont les coefficients de couplage magnéto-élastique reliés aux deux modes de déformations propres du cube : quadratique et rhomboédrique respectivement. Les expressions des modes normaux ε υμ en fonction des composantes ε ij du tenseur de déformation sont données dans le tableau I.1.
Représentation Γ1 Γ3 Γ5 Composante de déformation εα = 1 ε1γ = 2 3 (ε xx + ε yy + ε zz ) 1 ε zz − ( ε xx + ε yy ) ; ε 2γ = 3 2 1 2 2 ( ε xx − ε yy ) ε1ε = 2ε xy ; ε 2ε = 2ε yz ; ε 3ε = 2ε zx
Tableau I.1. Composantes normalisées et symétrisées des modes propres de déformation associées aux représent
irréductibles du groupe du cube Γ1, Γ3 et Γ5. 5 Chapitre I – Théorie et formalisme
Les expressions des opérateurs de Stevens quadrupolaires, Olm et Pij, en fonction des opérateurs Jx, Jy, Jz, sont données dans le tableau I.2. Op
érateur
O
20
Expression 3 J − J ( J + 1) 2 z O22 Pxy J x2 − J y2 = (J J 2 1 x Pyz Pzx 1 2 1 2 (J y y (J 2 1 + JxJy ) = 2 + + J −2 ) (J 2 −i 2 + − J −2 ) Jz + Jz J y ) ( Jz Jx + JxJz )
Tableau I.2. Expressions des opérateurs quadrupolaires de Stevens
Les déformations introduisent un terme d’énergie élastique : 2 2 2 2 2
2 1 1 1 Eel = C0α ( ε α ) + C0γ ( ε1γ ) + ( ε 2γ ) + C0ε ( ε1ε ) + ( ε 2ε ) + ( ε 3ε ) 2 2 2 (I.8)
où les
C0μ
sont les constantes élastiques symétrisées, reliées aux constantes élastiques usuelles par les relations suivantes: C
0α = C110 + 2C120
;
C0γ = C110 − C120
;
C0ε
=
2C
440 (I.9) Si aucune contrainte externe n’est imposée au système, les conditions de minimisation de l’énergie libre permettent de relier les modes de déformation aux valeurs statistiques des quadrupôles:
ε1γ = Bγ 3Bγ 0 γ O, ε = O22 2 2 γ γ C0 C0 Bε Bε Bε ε ε ε = ε Pxy, ε 2 = ε Pyz, ε 3 = ε Pzx C0 C0 C0 ε 1 6 (I.10)
Chapitre I – Théorie et formalisme I.2. Termes à deux ions
Le terme d’échange du type Heisenberg : HB Il traduit le couplage bilinéaire isotrope entre les ions de terre rare : HB
=
−
r r rr 1 1 2 2 J M M = − g μ J J ∑ ij i j 2 J B ∑ ij i J j 2 i, j i, j j ≠i (I.11) j ≠i
La somme sur i et j est étendue à tous les couples d’ions magnétiques du cristal. Jij est la r r constante de couplage entre les ions i et j de moment cinétique total J i et J j respectivement. Dans les composés intermétalliques de terres rares ce type de couplage est assuré par l’intermédiaire des électrons de conduction (couplage RKKY [4]). Dans le cas idéal d’électrons de conduction libres, on montre que [5] : ( 3N ) πΓ 2 g 2 − 1 2 F 2k J ij = − ( J ) ( F 2 2ε F r r Ri − R j ) (I.12) r r où Γ est la constante d’interaction entre le spin S des électrons 4f et les spins s des électrons de conduction. εF est l’énergie de Fermi, kF le vecteur d’onde de Fermi et N le nombre des électrons de conduction par unité de volume. F ( x) = ( x cos x − sin x ) x4 (avec r r x = 2k F Ri − R j ) est une fonction oscillante et à longue portée ; suivant la distance entre les atomes les interactions peuvent être soit négatives soit positives. Le traitement du terme de Heisenberg doit prendre en compte la globalité des ions du cristal ; il constitue un problème à N corps. Pour se ramener au problème à un ion on introduit des approximations, la plus commune étant celle du champ moléculaire (ACM) de Weiss. Pour un site donné, dans cette approximation, l’interaction avec les autres ions est résumée par l’action d’un champ moyen agissant sur le site. L’expression du champ moléculaire agissant sur le site i s’écrit alors: 7
Chapitre I – Théorie et formalisme
r r H ech Ri = ( ) ∑J j, j ≠i ij r Mj (I.13) r r r
où M j = M = − g J μB J représente la valeur statistique du moment magnétique de l’ion de terre rare. On introduit cette formule dans celle de l’hamiltonien d’échange bilinéaire (éq.I.11). Elle s’écrit finalement sous la forme : r r r HB = −∑ H ech Ri M i i ( ) (I.14) Le terme d’interaction quadrupolaire : HQ De manière analogue aux couplages bilinéaires entre les dipôles magnétiques, il existe des couplages à deux ions entre les quadrupôles électriques 4f [6]. Dans les composés intermétalliques, ces interactions s’établissent, comme pour l’échange bilinéaire, via les électrons de conduction. L’hamiltonien d’interaction quadrupolaire pour un système cubique s’écrit sous la forme suivante [7] :
1 0 0 2 2 γ ε HQ = − ∑ K ij O2 ( i ) O2 ( j ) + 3O2 ( i ) O2 ( j ) − K ij Pxy ( i ) Pxy ( j ) + Pyz ( i ) Pyz ( j ) + Pzx ( i ) Pzx ( j ) 2 i, j j ≠i (I.15)
où
les K ijμ sont
les
constant
es
de couplage quadrupolaires
associées aux deux représentations quadrupolaires du groupe du cube. De même que l’hamiltonien d’échange bilinéaire, l’hamiltonien d’interaction quadrupolaire doit être traité dans l’approximation du champ moyen. Il s’exprime alors sous la forme :
HQ = −∑ ∑ K ijγ O20 ( j ) O20 ( i ) + 3 O22 ( j ) O22 ( i ) − K ijε Pxy ( j ) Pxy ( i ) + p.c. i j, j ≠i (I.16) 8
Chapitre I – Théorie et formalisme Les termes correctifs de l’énergie en approche champ moyen
Dans l’approximation du champ moléculaire les sommations conduisent à compter deux fois la contribution de chaque site. Il faut alors retrancher aux énergies calculées (énergie interne, énergie libre) la moitié des énergies d’interactions.
I.3. Le champ moyen périodique I.3.1. L’échange bilinéaire
L’interaction d’échange bilinéaire, oscillante et à longue portée, qui s’effectue par l’intermédiaire des électrons de conduction, conduit à la stabilisation des structures magnétiques ordonnées à basse température. En raison de la périodicité de la structure, la valeur statistique des moments magnétiques peut s’écrire sous la forme d’une série de Fourier: r r M Ri ( ) rr r r i( kR i) =∑ m k ⋅ e r k ( ) (I.17) r r où mkr est la composante de Fourier associée à la propagation magnétique k. La relation r r r m− kr = mk*r préserve le caractère réel de M. En reportant l’expression I.17 dans l’équation I.13 l’expression du champ moyen devient alors:
r r H ech Ri = r r J R j − Ri ( ) ∑ ( j, j ≠i ) rr rr r r ikR r r ikR j m ⋅ e = m ⋅ e ∑r k ∑r k i k k r r ikr ( Rr − Rr ) J R j − Ri e j i ∑ ( j, j ≠i ) (I.18) r r r
En introduisant J k la transformée de Fourier de la constante de couplage J ij
= J R j − Ri : ( ) ( r r r ikr ( Rr − Rr ) J k = ∑ J R j − Ri e j i ( ) j on obtient [8] : 9 ( ) ) (I.19)
Chapitre I – Théorie et formalisme
rr r r ikR r r r ⋅e i H ech Ri = ∑ J k m k r ( ) ( ) k (I.20)
De cette expression et de l’hypothèse d’une constante de couplage uniquement dépendante de r la distance entre les deux sites considérés, il découle que J k admet les symétries du réseau ( ) réciproque du cristal. Les composés cubiques de terres rares présentent le plus souvent des structures magnétiques de haute symétrie. On appelle structure magnétique de haute symétrie une structure dont : 1. l’amplitude du moment est identique pour tous les sites, 2. les vecteurs de propagation magnétiques appartiennent à une seule et même étoile, 3. les moments magnétiques sont alignés selon une seule et même famille d’axe de haute symétrie du cube (soit <100>, soit <110>, soit <111>). Ces trois conditions conduisent à une grande simplification pour l’interprétation des résultats expérimentaux et pour la modélisation. En particulier, la condition (2) permet de factoriser l’expression du champ moléculaire, qui s’exprime en simple proportion du moment :
r r r H ech Ri = J k ( ) ( ) rr r r r r r ikR m e ∑r k i = J k M Ri ( ) ( ) k (I.21)
I.3.2. Couplages quadrupolaires
Un traitement analogue peut être effectué pour les interactions quadrupolaires [9]. Comme les moments magnétiques, les quadrupôles peuvent être développés en séries de Fourier. A titre d’exemple r O20 Ri r ( ) = ∑ o (k )⋅ e r k 0 2 rr ikRi et r Pxy Ri r ( ) = ∑ p ( k ) ⋅e 10 r k xy rr ikRi (I.22)
Chapitre I – Théorie et formalisme
Ces expressions introduites dans celles des champs moyens quadrupolaires conduisent aux relations suivantes pour les cinq champs moyens quadrupolaires: rr r 0 r ikR r γ i QO0 Ri = ∑ K k o k ⋅ e 2 r 2 QO2 2 QPxy r où les K γ k ( ) r et K ε k ( ) ( ) ( ) r r r ( R ) = ∑ K (k ) o (k )⋅ e r r r ( R ) = ∑ K (k ) p (k ) ⋅ e ( ) k γ i r k ε i xy r k rr ikRi rr ikRi (I.23), p.c. sont les transformées de Fourier des constantes de couplages r r quadrupolaires, K μ Ri − R j (μ= γ ou ε). ( 2 2 )
11
Chapitre I – Théorie et formalisme
Biblographie 1. Hutchings, M.T., Point-charge calculations of energy levels of magnetic ions in crystalline electric fields. Sol. Stat. Phys. 23, 1964: p. 283. 2. Lea, K.R., M.J.M. Leask, and W.P. Wolf, The raising of angular momentum degeneracy of f-electron terms by cubic crystal fields. J. Phys. Chem. Solids 23, 1962: p. 1381. 3. Lacheisserie, E., Les coefficients de la magnétostriction. Ann. Physique 5, 1970 : p. 267. 4. Rud erman, M.A. and C. Kittel, Indirect exchange coupling of nuclear magnetic moments by conduction electrons. Phys. Rev. 96, 1954: p. 99. 5. Coqblin, B., The electronic structure of rare-earth metals and alloys: The magnetic heavy rare earths. 1977, New York: Academic Press. 6. Levy, P.M., P. Morin, and D. Schmitt, Large Quadrupolar Interactions in Rare-Earth Compounds. Phys. Rev. Lett. 42, 1979: p. 1417. 7. Morin, P. and D. Schmitt, Quadrupolar interactions and magneto-elastic effects in rare earth intermetallics compounds, in Ferromagnetic materials, K.H.J. Buschow and E.P. Wohlfarth, Editors. 1990, North-Holland: Amsterdam. p. 1. 8. Blanco, J.A., Gignoux, D., Schmitt, D., Specific heat in some gadolinium compounds. II. Theoretical model. Phys. Rev. B 43, 1991: p. 13145 9. Amara, M. and P. Morin, Description of the magnetic phase diagram in NdZn. Physica B 222, 1996: p. 61. 12
Chapitre II– Conséquences de l’ordre magnétique sur la distribution de charge 4f Chapitre II Conséquences de l’ordre magnétique sur la distribution de charge 4f
L'ordre magnétique dans les systèmes à base de terre rare induit systématiquement des modifications dans la distribution de charge. On traite ici des deux principaux modes de redistribution de la charge que sont i) la déformation de la couche 4f, ii) le déplacement des ions terre rare. Avec ces deux modes de déformation émergent des paramètres d'ordre secondaires : composantes multipolaires, vecteurs déplacement, qui participent à la définition des états thermodynamiques. Ils déterminent donc en partie les propriétés du domaine d'ordre et donnent lieu à des phénomènes qui, indirectement, trahissent le magnétisme. Nous présentons dans ce chapitre des modèles qui permettent à partir de traitements en champ moléculaire d'expliciter cette relation entre charge et magnétisme. Partant d'une structure magnétique, peut alors déduire les structures multipolaires et/ou de déplacement qui l'accompagnent. II.1 Multipôles 4f et ordre magnétique
Nous avons vu au chapitre I que l’interaction entre la densité électronique 4f et le champ cristallin lève partiellement la dégénérescence du multiplet fondamental de l’ion terre rare. Le champ cristallin force la distribution électronique à adopter la symétrie du site. L’asphéricité de cette distribution est décrite par un développement en termes de moments multipolaires électriques. Ce développement se limite à l’ordre 6. Dans les cristaux de haute symétrie cette déformation n’aboutit pas à une levée totale de la dégénérescence orbitale. En particulier, dans les systèmes cubiques, les valeurs statistiques des moments quadrupolaires sont nulles dans l’état paramagnétique. De même que les interactions entre moments magnétiques stabilisent des états d’ordre à certaines températures, de même on s’attend à l’apparition d’ordres quadrupolaires si des couplages quadrupolaires existent. Des ordres purement quadrupolaires ont été observés pour certains systèmes de terre rares [1, 2], mais ces situations relèvent plutôt de l'exception. Elles sont la conséquence de
13 Chapitre II– Conséquences
de
l
’ordre magnétique sur
la
distribution de charge 4f
mécanismes de type
Jah
n-Teller ou d'interactions de paires mettant en cause la médiation de phonons ou d'électrons de conduction [3, 4]. En général les couplages entre quadrupôles sont faibles et peu compétitifs avec l’échange entre moments magnétiques. Dans la majorité des cas, c’est donc un ordre magnétique qui se développe à basse température. Cependant, en raison du couplage spin orbite, l’ordre magnétique conduit simultanément à un ordre quadrupolaire (l’inverse est faux à cause de la symétrie des multipôles électriques dans l’opération de renversement du temps). Néanmoins, les couplages quadrupolaires restent influents. Ils peuvent affecter l’ordre des transitions magnétiques, les valeurs des températures et champs critiques, l’anisotropie... [5]. L’ordre quadrupolaire conduit, via le couplage magnétoélastique à un ion, (éq. I.7), à des phénomènes de magnétostriction spontanée. Il introduit aussi un terme d’énergie collective susceptible de sélectionner certaines structures magnétiques. Quand les couplages sont de type antiferroquadrupolaire, il contribue à la stabilisation de structures magnétiques multiaxiales. II.1.1. Structure multipolaire 4f induite par une structure magnétique de haute symétrie
Le but est ici d'établir une méthode permettant de définir, pour une structure magnétique de haute symétrie donnée (voir ch. I.3.1), la structure multipolaire 4f avec laquelle elle coexiste. Sur la base de considérations de symétrie (celle de la structure magnétique) deux méthodes ont été proposées qui permettent d'identifier les composantes multipolaires qui apparaissent avec l'ordre magnétique et de préciser leurs vecteurs de propagation. L’une est basée sur l’identification systématique des symétries perdues par le site 4f dans l’état magnétique. Elle est semblable au traitement d’un problème de champ cristallin [6]. La seconde est basée sur les propriétés de transformation des multipôles dans l’hypothèse que l’ordre multipolaire se développe comme une conséquence du champ moyen qui s’exerce sur le site [7]. Nous présentons ici cette seconde méthode, analytiquement plus souple lorsqu’il s’agit d’étendre l’analyse aux multipôles d’ordre 4 et 6. Pour les structures magnétiques de haute symétrie, le champ moléculaire est une simple proportion du moment magnétique et tous les sites magnétiques sont équivalents au site origine O, à une transformation du groupe du cube près. Il en va de même pour les moments multipolaires ; si l’on connaît ceux du site d’origine, on peut les déduire pour un site quelconque j par la même transformation que celle appliquée
14
Chapitre II– Conséquences de l’ordre magnétique sur la distribution de charge 4f au moment magnétique. Toute composante multipolaire est au départ définie par un polynôme de puissance paire des coordonnés d’espace des électrons 4f, en cartésiennes x, y, z. Pour déduire les composantes multipolaires au site j, il suffit de connaître comment se transforment (x y, z) lorsqu’on passe de O à j. Par exemple, pour la représentation Γ3 (γ) du cube, les composantes quadrupolaires γ sont {O, 3 ( x − y )}. La 0 2 représentées, en notation de Stevens, par le vecteur {3z transforme comme les fonctions − r2, 2 2 2 3 O22 }. Ce vecteur se donnée de la structure magnétique ne permet pas de savoir ce que deviennent (x, y, z) en passant de O à j, mais ce qu'il advient des valeurs statistiques des composantes du moment magnétique ( mx, my, mz ). { } La clef est cependant que la base 3 z 2 − r 2, 3 ( x 2 − y 2 ) se transforme à son tour comme {3m 2 z } − m 2, 3 ( mx 2 − my 2 ). On profite ici du fait que les puissances paires des coordonnées d'espace, se transforment de manière identique aux puissances paires des coordonnées magnétiques homologues. Partant des coordonnées magnétiques, on fabrique les expressions des composantes multipolaires qui possèdent les propriétés de transformation requises. Pour les composantes quadrupolaires Γ3 (γ), considérant un site quelconque j, on pourra écrire :
O20 2 2 O ( j = αJ r2 j = αJ r ( ) ∑ ( 3z −1 i 2 ) ∑(x −1 2 i i 2 i − ri 2 ) = c2γ ( 3(mz ) 2j − m j 2 ) −y 2 i ) c2γ = (mx ) 2j − (m y ) 2j ) ( 3 (II.1) αJ est
le
coefficient de Stevens
d
’
ordre deux et <r2> l’intégrale radiale d’ordre deux sur tous r les électrons 4f. m j = ( mx j, m y j, mz j ) sont les composantes (valeurs statistiques) du moment magnétique au site j. c2γ est un scalaire, commun pour tous les sites de terre rare qui rend compte de tous les aspects quantitatifs du système. Pour avoir la concordance des définitions pour les multipôles 4f et leurs opérateurs de Stevens associés c2γ est nécessairement positif. Il peut être, à une température donnée, déterminé à partir des valeurs sur le site origine des composantes quadrupolaires et magnétiques. Dans le cas où le champ moléculaire d'échange tend vers zéro, cette valeur peut être directement reliée à une susceptibilité multipolaire [5]. 15 Chapitre II– Conséquences de l’ordre magnétique sur la distribution de charge 4f
En utilisant les polynômes magnétiques appropriés, il est donc possible de généraliser la méthode pour tous les opérateurs multipolaires d’ordre deux, quatre ou six. Il est important de rappeler ici que la périodicité d'une structure multipolaire ou magnétique de haute symétrie, peut s'identifier avec la récurrence de certaines transformations du cube. Les quantités qui ont les mêmes propriétés de transformation partagent donc les mêmes propagations. Dans un esprit de simplification, il y a intérêt à utiliser des définitions des composantes multipolaires qui se transforment selon les représentations irréductibles du groupe Oh. Les expressions des opérateurs multipolaires utilisées dans la suite sont celles définies par Morin et Schmitt dans [5], qui elles-mêmes complètent celles de Hutchings [8]. Ces expressions sont reportées en annexe. Dans cette procédure exprimer les 27 composantes multipolaires, se réduit alors à écrire les polynômes magnétiques associés, c’est-à-dire ayant les mêmes propriétés de transformation. Dans les expressions des polynômes multipolaires en fonction des coordonnées d'espace, on remplace x par mx, y par my, z par mz, pour obtenir les 27 polynômes de base des cinq représentations irréductibles du groupe du cube, Γ1, Γ2, Γ3, Γ4, Γ5, en fonction des coordonnées magnétiques. Leurs définitions sont rassemblées dans le tableau II.1. Ce dernier est organisé de telle sorte que les vecteurs de base équivalents d'une représentation donnée, mais d'ordres différents, y partagent une même ligne. On remarque que pour une même représentation, les résultats de l'analyse à l'ordre 2 (quadrupolaire), s'appliquent immédiatement aux ordres 4 et
6. Chaque composante multipolaire s'écrit en proportion de son polynôme associé via une constante cnμ propre à l'ordre n et à la représentation μ. Les composantes pleinement symétriques Γ1 sont déjà ordonnées par le champ cristallin, et sont par définition identiques sur tous les sites. Par contre pour les composantes de toutes les autres représentations, les vecteurs de propagations vont dépendre de la caractéristique de la structure magnétique. 16 Chapitre II– Conséquences de l’ordre magnétique sur la distribution de charge
4f Γ
i
Quadr
upôle
Hexa
décap
ôle
s
Γ1
∆ O4α Hexa
contatétrapôles
mx4 + m y4 + mz4 = c4α 3 4 ∆ O6α = c6α − m 5 - - Γ2 Γ3 Γ4 β 6 3mz2 O =c 2 −m 2 cγ mx O22 = 2 2 3 −m y 7 mz4 + 14mx2 m y2 O =c −4 m 2 m 2 − m 4 z O4γ,2 = c4γ
(
mx2 − m 2y ) - O4δ,1 = c4δ mx m y
(
mx2 − m y2 ) γ 2 γ 4 ×
( m 2
− 7mz2
)
O4
δ
,2
= c4δ mz mx ( mz2
− mx2
)
O4δ
,
3 =
c
4δ m y m
z (
m y2 − mz2 ) Pxy = c2ε mx m y Γ5 γ
,
1 4 Pxy = c2ε mx m y O4ε,1 = c4ε mx m y ( 7mz2 − m 2 ) ε,2 4 O = c m y mz ( 7 m − m ε 4 2 x 2 O4ε,3 = c4ε mz mx ( 7 my2 − m 2 ) ) mx4 ( m y2 − mz2 ) + my4 ( mz2 − mx2 ) =c + mz4 ( mx2 − my2 ) β 6 O 0 2 2 ( mx6 + m6y + m z6 ) + 180mx2 my2 mz2 2 4 2 4 2 4 mx mz + mz mx + mx my −15 + my2 mx4 + my2 mz4 + mz2 my4 2mz6 − mx6 − m6y + 15 ( mx4 + m y4 ) mz2 =c −15 ( mx2 + my2 ) mz4 γ,1 6 γ 6 O γ,2 6 O O6δ,1 m 4 − 7 m 2 mz2 = c (m − m ) +11m 4 − 11m 2 m 2 z x y = c6δ mx m y ( mx2 − m y2 )(11mz2 − m 2 ) γ 6 2 x 2 y O6δ,2 = c6δ my mz ( my2 − mz2 )(11mx2 − m 2 ) O6δ,3 = c6δ mz mx ( mz2 − mx2 )(11m 2y − m 2 ) O6ε1,1 = c6ε1 mx m y ( 33mz4 − 18m 2 mz2 + m 4 ) O6ε 2,1 = c6ε 2 mx my ( 3mx4 − 10mx2 my2 + 3my4 ) O6ε1,2 = c6ε1 my mz ( 33mx4 − 18m 2 mx2 + m 4 ) O6ε 2,2 = c6ε 2 my mz ( 3my4 − 10my2 mz2 + 3mz4 ) O6ε1,3 = c6ε1 mz mx ( 33my4 − 18m 2 m y2 + m 4 ) Pxy = c2ε mx my O6ε 2,3 = c6ε 2 mz mx ( 3mz4 − 10mz2 mx2 + 3mx4 ) Tableau II.1. 17 Chapitre II– Conséquences de l’ordre magnétique sur la distribution de charge 4f II.1.1.1. Moments magnétiques selon des axes quaternaires, binaires et ternaires
Dans les systèmes cubiques l’anisotropie magnétocristalline force les moments magnétiques à s’aligner selon une seule famille d’axes de haute symétrie, quaternaires, binaires ou ternaires. Dans ces conditions les composantes d’ordre 4 et 6 des représentations Γ2 et Γ4 (tableau II.1) s’annulent, et les expressions des composantes des représentations Γ3 et Γ5, présentent des simplifications drastiques. Elles sont regroupées dans les tableaux II.2. et II.3.
| 29,327
|
d28c652b4b292cfe5b9cc618318f0074_1
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,009
|
Dépenses totales de santé par habitant, USD PPA, 1980 à 2007
|
None
|
French
|
Spoken
| 7,441
| 11,619
|
Panorama de la santé
2009
LES INDICATEURS DE L’OCDE
Panorama de la santé
2009
LES INDICATEURS DE L’OCDE
ORGANISATION DE COOPÉRATION
ET DE DÉVELOPPEMENT ÉCONOMIQUES
L’OCDE est un forum unique en son genre où les gouvernements de 30 démocraties œuvrent
ensemble pour relever les défis économiques, sociaux et environnementaux que pose la
mondialisation. L’OCDE est aussi à l’avant-garde des efforts entrepris pour comprendre les évolutions
du monde actuel et les préoccupations qu’elles font naître. Elle aide les gouvernements à faire face à
des situations nouvelles en examinant des thèmes tels que le gouvernement d’entreprise, l’économie
de l’information et les défis posés par le vieillissement de la population. L’Organisation offre aux
gouvernements un cadre leur permettant de comparer leurs expériences en matière de politiques, de
chercher des réponses à des problèmes communs, d’identifier les bonnes pratiques et de travailler à la
coordination des politiques nationales et internationales.
Les pays membres de l’OCDE sont : l’Allemagne, l’Australie, l’Autriche, la Belgique, le Canada, la
Corée, le Danemark, l’Espagne, les États-Unis, la Finlande, la France, la Grèce, la Hongrie, l’Irlande,
l’Islande, l’Italie, le Japon, le Luxembourg, le Mexique, la Norvège, la Nouvelle-Zélande, les Pays-Bas, la
Pologne, le Portugal, la République slovaque, la République tchèque, le Royaume-Uni, la Suède, la
Suisse et la Turquie. La Commission des Communautés européennes participe aux travaux de l’OCDE.
Les Éditions OCDE assurent une large diffusion aux travaux de l’Organisation. Ces derniers
comprennent les résultats de l’activité de collecte de statistiques, les travaux de recherche menés sur
des questions économiques, sociales et environnementales, ainsi que les conventions, les principes
directeurs et les modèles développés par les pays membres.
Cet ouvrage est publié sous la responsabilité du Secrétaire général de l’OCDE. Les
opinions et les interprétations exprimées ne reflètent pas nécessairement les vues de
l’OCDE ou des gouvernements de ses pays membres.
ISBN 978-92-64-07556-6 (print)
ISBN 978-92-64-07557-3 (PDF)
ISBN 978-92-64-07642-6 (HTML)
DOI 10.1787/health_glance-2009-fr
Publié en anglais : Health at a Glance 2009: OECD Indicators
Crédits photo : Couverture : © Stockbyte/Fotosearch. Chapitre 1 : © Comstock/Jupiterimages. Chapitre 2 : © Comstock/
Jupiterimages. Chapitre 3 : © Randy Faris/Corbis. Chapitre 4 : © Vincent Hazat/Photo Alto. Chapitre 5 : © CREATAS/Jupiterimages.
Chapitre 6 : © onoky - Fotolia.com. Chapitre 7 : © Tetraimages/Inmagine.
Les corrigenda des publications de l’OCDE sont disponibles sur : www.oecd.org/editions/corrigenda.
© OCDE 2009
Vous êtes autorisés à copier, télécharger ou imprimer du contenu OCDE pour votre utilisation personnelle. Vous pouvez inclure des extraits des
publications, des bases de données et produits multimédia de l’OCDE dans vos documents, présentations, blogs, sites Internet et matériel
d'enseignement, sous réserve de faire mention de la source OCDE et du copyright. Les demandes pour usage public ou commercial ou de traduction
devront être adressées à [email protected]. Les demandes d’autorisation de photocopier une partie de ce contenu à des fins publiques ou commerciales
peuvent être obtenues auprès du Copyright Clearance Center (CCC) [email protected] ou du Centre français d’exploitation du droit de copie (CFC)
[email protected].
AVANT-PROPOS
Avant-propos
C
ette nouvelle édition du Panorama de la santé témoigne des progrès accomplis, sur le plan
national et international, en matière d’évaluation des performances des systèmes de santé. À leur
réunion en mai 2004, les ministres de la Santé ont demandé à l’OCDE de travailler avec les
administrations nationales à l’amélioration de la base d’informations permettant de comparer les
performances des systèmes de santé : 1) en garantissant l’actualité et l’exactitude de la base de
données Eco-Santé OCDE ; 2) en poursuivant la mise en œuvre des comptes de la santé afin
d’améliorer la disponibilité et la comparabilité des données sur les dépenses de santé et leur
financement; et 3) en élaborant, en collaboration avec des experts nationaux, des indicateurs de la
qualité des soins et des résultats de santé. Des progrès substantiels ont été réalisés dans tous ces
domaines, qui transparaissent dans l’éventail plus large d’indicateurs des intrants, des extrants et
des résultats des systèmes de santé, présentés dans cette publication.
La production du Panorama de la santé n’aurait pas été possible sans le concours des
correspondants nationaux d’Eco-Santé OCDE, des spécialistes des comptes de la santé et des
experts participant au Projet sur les indicateurs de la qualité des soins de santé. L’OCDE les remercie
chaleureusement pour leurs efforts, consciente qu’elle leur doit la plupart des données et des
informations qualitatives contenues dans cette publication. L’OCDE exprime également sa gratitude
à d’autres organisations internationales, en particulier l’Organisation mondiale de la santé et
Eurostat, dont certaines données sont reprises ici, ainsi qu’à la Commission européenne pour son
soutien aux développements des données dans le domaine des comptes de la santé et des indicateurs
de qualité des soins.
Cette publication a été préparée par la Division de la santé de l’OCDE sous la coordination de
Gaétan Lafortune et Michael de Looper. Le chapitre 1 a été rédigé par Michael de Looper; le
chapitre 2 par Dominic Richardson, Franco Sassi, Michele Cecchini et Michael de Looper; le
chapitre 3 par Gaétan Lafortune, Rie Fujisawa et Jean-Christophe Dumont ; le chapitre 4 par
Gaétan Lafortune, Valérie Paris, Gaëlle Balestat et Francis Notzon (du National Centre for Health
Statistics, États-Unis); le chapitre 5 par Ian Brownwood, Sandra Garcia Armesto, Niek Klazinga,
Soeren Mattke (de Bain, États-Unis) et Saskia Drösler (de l’Université des sciences appliquées du
Niederrhein, Allemagne); le chapitre 6 par Michael de Looper; et le chapitre 7 par David Morgan,
Roberto Astolfi et William Cave. Tous les graphiques ont été réalisés par Gaëlle Balestat, à
l’exception de ceux du chapitre 5, réalisés par Rie Fujisawa et Lihan Wei, et des graphiques du
chapitre 7, réalisés par David Morgan et Roberto Astolfi. Enfin, cette publication a bénéficié des
nombreux commentaires et suggestions de Mark Pearson.
PANORAMA DE LA SANTÉ 2009 : LES INDICATEURS DE L’OCDE © OCDE 2009
3
TABLE DES MATIÈRES
Table des matières
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
9
1. État de santé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
15
1.1. Espérance de vie à la naissance. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
1.2. Espérance de vie à 65 ans . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
1.3. Mortalité prématurée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
1.4. Mortalité due aux maladies cardiovasculaires . . . . . . . . . . . . . . . . . . . . . . . . ..
1.5. Mortalité due au cancer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
1.6. Mortalité due aux accidents de la route . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
1.7. Suicide . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
1.8. Mortalité infantile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
1.9. Santé du nourrisson : faible poids à la naissance . . . . . . . . . . . . . . . . . . . . . . ..
1.10. Santé dentaire des enfants. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
1.11. État de santé général perçu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
1.12. Prévalence et incidence du diabète . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
1.13. Incidence du sida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
16
18
20
22
24
26
28
30
32
34
36
38
40
2. Déterminants non médicaux de la santé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
43
2.1.
2.2.
2.3.
2.4.
2.5.
2.6.
2.7.
Consommation de tabac et d’alcool à 15 ans. . . . . . . . . . . . . . . . . . . . . . . . . . ..
Nutrition à l’âge de 11, 13 et 15 ans . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Activité physique à l’âge de 11, 13 et 15 ans . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Surcharge pondérale et obésité chez les enfants . . . . . . . . . . . . . . . . . . . . . . ..
Consommation de tabac chez les adultes . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Consommation d’alcool chez les adultes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Surcharge pondérale et obésité chez les adultes. . . . . . . . . . . . . . . . . . . . . . . ..
44
46
48
50
52
54
56
3. Personnel de santé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
59
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
3.1. Emploi dans le secteur de la santé et le secteur social . . . . . . . . . . . . . . . . . ..
3.2. Médecins en exercice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
3.3. Médecins nouvellement diplômés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
3.4. Médecins formés à l’étranger. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
3.5. Rémunération des médecins (généralistes et spécialistes) . . . . . . . . . . . . . . ..
3.6. Gynécologues et obstétriciens, et sages-femmes . . . . . . . . . . . . . . . . . . . . . . ..
3.7. Psychiatres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
3.8. Personnel infirmier en exercice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
3.9. Personnel infirmier nouvellement diplômé. . . . . . . . . . . . . . . . . . . . . . . . . . . ..
3.10. Rémunération du personnel infirmier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
3.11. Dentistes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
3.12. Pharmaciens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
60
62
64
66
68
70
72
74
76
78
80
82
84
PANORAMA DE LA SANTÉ 2009 : LES INDICATEURS DE L’OCDE © OCDE 2009
5
TABLE DES MATIÈRES
4. Services de santé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
7.5.
7.6.
7.7.
Dépenses pharmaceutiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
Dépenses par maladie et par âge. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
Financement des dépenses de santé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
Commerce international des services de santé (tourisme médical) . . . . . . . . 172
Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
Annexe A. Informations complémentaires sur le contexte démographique
et économique, les caractéristiques des systèmes de santé,
et les dépenses de santé et le financement . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
Annexe B. Liste des variables dans Eco-Santé OCDE 2009 . . . . . . . . . . . . . . . . . . . . . . . . . 200
Ce livre contient des...
StatLinks2
Accédez aux fichiers Excel®
à partir des livres imprimés !
En bas à droite des tableaux ou graphiques de cet ouvrage, vous trouverez des StatLinks.
Pour télécharger le fichier Excel® correspondant, il vous suffit de retranscrire dans votre
navigateur Internet le lien commençant par : http://dx.doi.org.
Si vous lisez la version PDF de l’ouvrage, et que votre ordinateur est connecté à Internet,
il vous suffit de cliquer sur le lien.
Les StatLinks sont de plus en plus répandus dans les publications de l’OCDE.
PANORAMA DE LA SANTÉ 2009 : LES INDICATEURS DE L’OCDE © OCDE 2009
7
INTRODUCTION
Introduction
P
anorama de la santé 2009 permet aux lecteurs de comparer les systèmes de santé et leurs
performances dans un certain nombre d’aspects clés, à l’aide d’un ensemble d’indicateurs
choisis pour leur pertinence et sur la base de la disponibilité et la comparabilité des données.
Depuis longtemps, l’OCDE est l’un des chefs de file internationaux pour l’élaboration
d’outils et la collecte de données visant à évaluer les performances des systèmes de santé.
Les travaux de l’OCDE pour améliorer la comparabilité des statistiques de la santé
remontent aux années 80, où ont débuté des efforts portant sur les dépenses de santé, à
une époque où l’augmentation rapide de ces dépenses et les tensions croissantes
concernant leur financement sont devenues un sujet de préoccupation (OCDE, 1985). La
publication du manuel Système de comptes de la santé en 2000 a fourni une nouvelle
impulsion. Il représente pour l’OCDE un outil clé pour améliorer la comparabilité des
données sur les dépenses de santé dans un groupe plus large de pays, en travaillant en
collaboration étroite avec l’OMS et Eurostat.
S’il est nécessaire de disposer de données comparables sur les dépenses de santé pour
évaluer le montant des ressources financières que les pays allouent à la santé, cela ne
suffit évidemment pas pour évaluer les performances des systèmes de santé. Les travaux
de l’OCDE pour améliorer la comparabilité des statistiques de santé se sont élargis pour
couvrir l’offre en travailleurs de santé et leurs activités ainsi que les ressources matérielles
dans les systèmes de soins de santé. À la suite de la réunion des ministres de la Santé de
l’OCDE en 2004, l’OCDE a étendu encore plus ses travaux visant à assembler des données
comparables pour évaluer les performances des systèmes de santé, en élaborant et en
collectant un ensemble d’indicateurs destinés à mesurer la qualité des soins et les
résultats des interventions de santé. En outre, des travaux initiaux ont été entrepris sur un
ensemble d’indicateurs relatifs à l’accès aux soins, autre objectif clé des systèmes de santé
dans les pays de l’OCDE. L’OCDE continue de travailler avec les experts de ses pays
membres et avec d’autres organisations internationales pour combler les lacunes de
l’évaluation et de la comparaison des performances des systèmes de santé.
Contexte économique et social
À partir du second semestre 2008, l’ensemble des pays de l’OCDE a commencé à subir
une récession économique. D’après les projections de l’OCDE de juin 2009, le PIB pourrait
baisser d’environ 4 % dans les pays de l’OCDE en 2009 et on prévoit une élévation du taux
de chômage à environ 10 % de la population active d’ici la fin de 2010 (OCDE, 2009b).
Les budgets gouvernementaux sont un amortisseur d’une grande importance en
période d’activité économique fléchissante, principalement grâce aux stabilisateurs
automatiques et aux dépenses ou aux allégements fiscaux discrétionnaires. Toutefois, il en
résulte une augmentation sensible des déficits publics. Quand la reprise économique sera
suffisamment affermie, il sera nécessaire dans de nombreux pays de réduire
substantiellement les déficits budgétaires. L’ampleur des réductions de dépenses
publiques et/ou des augmentations d’impôts dépendra de la force de la reprise et du
montant du déficit et de la dette cumulée.
PANORAMA DE LA SANTÉ 2009 : LES INDICATEURS DE L’OCDE © OCDE 2009
9
INTRODUCTION
Étant donné que les dépenses de santé représentent une part importante et croissante
des budgets publics, il sera difficile de les protéger contre un quelconque effort général
visant à maîtriser les dépenses publiques pendant ou après la récession. L’ampleur de
l’impact sur les dépenses publiques de santé dépendra de la priorité relative accordée à la
santé par rapport aux autres domaines. Cela dépendra aussi dans quelle mesure les
dépenses publiques de santé produisent des avantages avérés par de meilleurs résultats de
santé pour la population. Dans un contexte de pénurie des ressources publiques, des
pressions croissantes s’exerceront sur les ministères de la Santé et sur les fournisseurs de
soins de santé pour qu’ils fassent preuve d’efficience (efficacité/coût) dans l’allocation des
ressources. Le chapitre 5 présente quelques-uns des progrès réalisés jusqu’à présent dans
la mesure de la qualité des soins et des résultats de santé dans les différents pays, tout en
notant que l’ensemble de mesures est encore partiel et que des travaux supplémentaires
sont nécessaires pour améliorer la comparabilité et la couverture des données.
Structure de la publication
Le cadre conceptuel sur lequel s’appuie la présente publication permet d’examiner les
performances des systèmes de soins de santé dans le contexte d’une vision globale de santé
publique (graphique 0.1). Ce cadre a pour base un schéma adopté dans le projet de l’OCDE
sur les indicateurs de qualité des soins de santé (Kelley et Hurst, 2006; Arah et al., 2006).
Ce cadre souligne que le but final des systèmes (de soins) de santé est d’améliorer
l’état de santé de la population. Un grand nombre de facteurs influent sur l’état de santé de
la population, y compris des facteurs extérieurs aux systèmes de soins de santé tels que
l’environnement social, économique et physique des individus ainsi que les facteurs
individuels liés au style de vie et aux comportements. Les performances des systèmes de
Graphique 0.1. Cadre conceptuel pour l’évaluation des performances
des systèmes de santé
Santé
(chapitre 1)
Déterminants non médicaux de la santé
(chapitre 2)
Performances du système de santé
Quelles sont les performances du système de santé ?
Quel est le degré de qualité des soins et d’accès aux services ?
Quel est le coût de ces performances ?
Qualité
(chapitre 5)
Accès
(chapitre 6)
Coût/dépenses
(chapitre 7)
Ressources et activités de soins de santé
Personnel de santé
(chapitre 3)
Activités de santé
(chapitre 4)
Conception et contexte du système de santé
(annexe A)
Source : Adaptation de OCDE (2006), « Cadre conceptuel pour le Projet sur les indicateurs de la qualité des soins de
santé de l’OCDE », Document de travail de l’OCDE sur la santé, no 23, Éditions de l’OCDE, Paris.
10
PANORAMA DE LA SANTÉ 2009 : LES INDICATEURS DE L’OCDE © OCDE 2009
INTRODUCTION
soins de santé influent aussi sur l’état de santé de la population. Ces performances
comportent plusieurs dimensions, notamment le degré d’accès aux soins et la qualité des
soins fournis. La mesure des performances doit aussi prendre en compte les ressources
financières requises pour atteindre ces objectifs en matière d’accès et de qualité. Les
performances des systèmes de santé dépendent des personnes qui fournissent les
services, et de la formation, des technologies et des équipements dont elles disposent.
Enfin, un certain nombre de facteurs influent sur les performances des systèmes de soins
de santé, comme le contexte démographique, économique et social et la conception des
systèmes de santé.
Le Panorama de la santé 2009 présente des comparaisons entre les pays de l’OCDE pour
chaque composante de ce cadre d’analyse. Il est organisé comme suit :
● Le chapitre 1, État de santé, met en évidence les grandes disparités entre les pays en termes
d’espérance de vie, de mortalité et autres mesures de l’état de santé de la population.
● Dans
le chapitre 2, Déterminants non médicaux de la santé, on examine quelques
déterminants en rapport avec des modes de vie et des comportements modifiables. Ce
chapitre a été étendu cette année à des facteurs de risque ou de protection concernant
les enfants, comme les habitudes nutritionnelles, l’activité physique et la consommation
de tabac ou d’alcool. Ceux-ci complètent l’ensemble des indicateurs des facteurs de
risque des adultes.
● Le chapitre 3 porte sur le Personnel de santé, les acteurs clés de tout système de santé. Ce
nouveau chapitre donne des informations sur l’offre en médecins et infirmières et leurs
rémunérations, ainsi que sur les tendances récentes des migrations internationales de
médecins dans les pays de l’OCDE.
● Dans le chapitre 4, on considère un ensemble clé de Services de santé, intra ou extra-
hospitaliers. On examine les différences entre les pays concernant l’offre en
technologies médicales et leur utilisation, telles que les unités d’imagerie par résonance
magnétique et les tomodensitomètres. On considère aussi les différences dans le recours
aux interventions fréquentes ou coûteuses, telles que le pontage coronarien et
l’angioplastie coronaire, les césariennes et les opérations de la cataracte.
● Le
chapitre 5 sur la Qualité des soins présente des comparaisons pour un ensemble
d’indicateurs de qualité concernant le traitement des affections chroniques, des troubles
mentaux et du cancer, et les services liés aux maladies transmissibles. Cela comprend
des indicateurs sur les processus de soins recommandés pour certaines catégories de
population ou de patients afin de maximiser les résultats souhaités, et des indicateurs
sur les résultats comme les taux de survie à la suite de crise cardiaque, d’accident
vasculaire cérébral ou de cancer.
● Le chapitre 6 est un nouveau chapitre sur l’Accès aux soins, qui vise à combler un manque
concernant la mesure de cet aspect important des performances des systèmes de santé. Ce
nouveau chapitre comprend un nombre limité d’indicateurs relatifs à l’accessibilité
financière ou géographique. On espère présenter un ensemble plus large d’indicateurs dans
les éditions futures, quand des progrès auront été réalisés dans la collecte des données.
● Dans le chapitre 7, Dépenses de santé et financement, on compare les montants dépensés
par les pays de l’OCDE au titre de la santé, globalement et pour les différents types de
biens et services. On considère aussi les sources de financement de ces biens et services
de santé dans les différents pays (la combinaison de financement public, d’assurance
maladie privée et de paiements directs des patients).
● L’annexe A donne des informations additionnelles sur le contexte démographique et
économique dans lequel opèrent les systèmes de santé, ainsi que certaines
caractéristiques clés du financement du système de santé et de la livraison des services.
Cela peut aider les lecteurs à interpréter les indicateurs présentés dans cette publication.
PANORAMA DE LA SANTÉ 2009 : LES INDICATEURS DE L’OCDE © OCDE 2009
11
INTRODUCTION
Un nombre croissant de pays de l’OCDE publient régulièrement des rapports sur
différents aspects de la santé et sur les performances de leurs systèmes de soins de santé.
Parmi ces rapports nationaux, on peut mentionner, par exemple : A Set of Performance
Indicators across the Health and Aged Care System en Australie (AIHW, 2008e), Dutch Health Care
Performance Report aux Pays-Bas (RIVM, 2008), Quality and Efficiency in Swedish Health Care en
Suède (Swedish Association of Local Authorities and Regions and National Board of Health
and Welfare, 2008), et le National Healthcare Quality Report ainsi que le National Healthcare
Disparities Report aux États-Unis (AHRQ, 2008a et 2008b). Ces rapports nationaux examinent
souvent les différences entre les régions du pays considéré. Le rapport néerlandais offre un
bon exemple de la façon dont ces rapports nationaux peuvent aussi s’enrichir de
comparaisons internationales, pour élargir la perspective sur les points forts et les points
faibles du système de santé national et mettre en lumière les domaines où des
améliorations sont possibles.
Présentation des indicateurs
Chacun des sujets abordés dans les différents chapitres de cette publication fait l’objet
d’une présentation sur deux pages. Sur la première page, le lecteur trouvera un texte succinct
qui résume les principales observations tirées des données, définit les indicateurs et indique
les principales divergences nationales par rapport à cette définition susceptibles d’altérer la
comparabilité des données. La seconde page présente un ensemble de graphiques qui
montrent généralement les valeurs les plus récentes de l’indicateur et, dans la mesure du
possible, ses évolutions dans le temps. Dans certains cas, un graphique supplémentaire
présente la relation existant entre l’indicateur concerné et une autre variable. Lorsqu’un
graphique contient une moyenne de l’OCDE, il s’agit d’une moyenne non pondérée des pays
présentés, sauf indication contraire des notes accompagnant le graphique.
Limites des données
Les limites de comparabilité des données sont indiquées dans le texte (dans un
encadré intitulé « Définition et écarts ») ainsi que dans les notes adjointes aux graphiques.
Il convient de noter que l’évolution dans le temps des données concernant l’Allemagne
doit être interprétée avec une prudence particulière. En effet, les données recueillies pour
ce pays se rapportent de manière générale à l’Allemagne de l’Ouest jusqu’en 1990 et à
l’Allemagne réunifiée à partir de 1991.
Les lecteurs qui souhaiteraient utiliser les données présentées dans cette publication
pour des analyses et des recherches plus approfondies sont invités à consulter la
documentation complète sur les définitions, les sources et les méthodes, contenue dans
Eco-Santé OCDE 2009. Ces informations sont disponibles gratuitement à www.oecd.org/sante/
ecosante. Eco-Santé OCDE 2009 peut aussi être commandé en ligne à SourceOCDE
(www.sourceOECD.org) ou à la librairie en ligne de l’OCDE (www.oecdbookshop.org). En ce qui
concerne le chapitre 7 sur la Qualité des soins, on trouvera plus d’informations sur les
définitions, sources et méthodes sous-jacentes aux données à www.oecd.org/health/hcqi.
Les chiffres de population
Les chiffres de population présentés dans l’annexe A et utilisés pour calculer les taux
par habitant dans l’ensemble de la publication sont tirés de la Base de données de l’OCDE sur
la population active (en date d’avril 2009). Ce sont des estimations de la population en milieu
d’année. Ces estimations de la population sont révisables, si bien qu’elles peuvent différer
des chiffres les plus récents publiés par les instituts statistiques nationaux des pays
membres de l’OCDE.
12
PANORAMA DE LA SANTÉ 2009 : LES INDICATEURS DE L’OCDE © OCDE 2009
INTRODUCTION
Il convient aussi de noter que pour certains pays comme la France, le Royaume-Uni et
les États-Unis, qui ont des colonies, des protectorats ou des territoires outre-mer, ces
populations ne sont généralement pas prises en compte. Toutefois, la population utilisée
pour le calcul du PIB par habitant ou d’autres mesures économiques concernant ces pays
peut varier suivant la couverture des données.
Abréviations des pays (codes ISO)
Allemagne
DEU
Italie
ITA
Australie
AUS
Japon
JPN
Autriche
AUT
Luxembourg
LUX
Belgique
BEL
Mexique
MEX
Canada
CAN
Norvège
NOR
Corée
KOR
Nouvelle-Zélande
NZL
Danemark
DNK
Pays-Bas
NLD
Espagne
ESP
Pologne
POL
États-Unis
USA
Portugal
PRT
Finlande
FIN
République slovaque
SVK
France
FRA
République tchèque
CZE
Grèce
GRC
Royaume-Uni
GBR
Hongrie
HUN
Suède
SWE
Irlande
IRL
Suisse
CHE
Islande
ISL
Turquie
TUR
Liste des acronymes
APVP
AVC
CT Scans
CITI
DCAO
DQD
EU-SILC
HBSC
HCQI
ICSS
IAM
IMC
IRM
MPOC
PPA
PIB
SCS
SIDA
VIH
Années potentielles de vie perdues
Accidents vasculaires cérébraux
Tomodensitomètres
Classification internationale type par industrie
Dent permanente cariée, absente ou obturée
Dose quotidienne définie
Enquête de l’Union européenne sur le revenu et les conditions de vie
Enquête Health Behavior in School-aged Children
Health Care Quality Indicators (Projet de l’OCDE sur les indicateurs
de la qualité des soins de santé)
International Cancer Survival Standard
Infarctus aigu du myocarde
Indice de masse corporelle
Imagerie par résonance magnétique
Maladie pulmonaire obstructive chronique
Parités de pouvoir d’achat
Produit intérieur brut
Système de comptes de la santé
Syndrome immunodéficitaire acquis
Virus de l’immunodéficience humaine
PANORAMA DE LA SANTÉ 2009 : LES INDICATEURS DE L’OCDE © OCDE 2009
13
1. ÉTAT DE SANTÉ
1.1.
Espérance de vie à la naissance
1.2.
Espérance de vie à 65 ans
1.3.
Mortalité prématurée
1.4.
Mortalité due aux maladies cardiovasculaires
1.5.
Mortalité due au cancer
1.6.
Mortalité due aux accidents de la route
1.7.
Suicide
1.8.
Mortalité infantile
1.9.
Santé du nourrisson : faible poids à la naissance
1.10. Santé dentaire des enfants
1.11. État de santé général perçu
1.12. Prévalence et incidence du diabète
1.13. Incidence du sida
PANORAMA DE LA SANTÉ 2009 : LES INDICATEURS DE L’OCDE © OCDE 2009
15
1. ÉTAT DE SANTÉ
1.1. Espérance de vie à la naissance
L’espérance de vie à la naissance a continué d’augmenter
considérablement dans les pays de l’OCDE, reflétant une
forte baisse des taux de mortalité à tous les âges. Ces
gains de longévité peuvent être attribués à un certain
nombre de facteurs, notamment à l’élévation des niveaux
de vie, à l’amélioration de l’hygiène de vie et du niveau
d’éducation mais aussi à un meilleur accès à des services
de santé de qualité. D’autres facteurs, tels que l’amélioration de l’alimentation, des conditions sanitaires et du
logement, jouent également un rôle, en particulier dans
les pays dont l’économie est en phase de développement
(OCDE, 2004c).
L’espérance de vie à la naissance pour l’ensemble de la
population dans les pays de l’OCDE était en moyenne de
79 ans en 2007, soit un gain de plus de dix années par
rapport à 1960 (graphique 1.1.1). Dans un tiers des pays
de l’OCDE, elle était de plus de 80 ans en 2007. Le pays qui
affichait l’espérance de vie la plus élevée était le Japon
avec une espérance de vie de 82.6 ans pour l’ensemble de
sa population (hommes et femmes). À l’autre extrémité
de l’échelle, c’est en Turquie (suivie de la Hongrie) qu’elle
était la plus faible. Mais si en Hongrie l’espérance de vie a
augmenté dans des proportions modestes depuis 1960,
en Turquie elle a fortement progressé permettant au pays
de rattraper rapidement la moyenne de l’OCDE (OCDE et
Banque mondiale, 2008). Au cours des dix dernières
années, l’espérance de vie à la naissance a augmenté de
trois ans ou plus en Corée, en Turquie, en Irlande et au
Portugal.
L’écart d’espérance de vie entre les sexes était de 5.6 ans
en moyenne dans les pays de l’OCDE en 2007, avec une
espérance de vie de 76.2 ans pour les hommes et de
81.8 ans pour les femmes (graphique 1.1.2). Entre 1960
et 2007, cet écart a augmenté d’environ une demi-année
en moyenne. Ce résultat masque cependant des évolutions différentes entre les premières décennies et les
décennies ultérieures. Dans de nombreux pays, l’écart
d’espérance de vie entre les sexes s’est fortement creusé
dans les années 60 et 70, pour se resserrer au cours des
25 dernières années, reflétant une progression plus
rapide de l’espérance de vie des hommes dans la plupart
des pays de l’OCDE. Ce resserrement plus récent de l’écart
de l’espérance de vie entre hommes et femmes peut être
attribué, du moins en partie, à la diminution des écarts
hommes et femmes sur le plan des comportements à
risque (tels que la consommation de tabac) ainsi qu’à
une forte baisse des taux de mortalité liés aux maladies
cardiovasculaires chez les hommes.
Un revenu national (mesuré par le PIB par habitant) élevé
s’accompagne généralement d’une espérance de vie à la
naissance plus grande, même si la relation est moins
étroite aux niveaux de revenu national les plus hauts
16
(graphique 1.1.3). On note également des différences
d’espérance de vie notables entre des pays de l’OCDE qui
ont le même revenu par habitant. Le Japon et l’Espagne
ont des espérances de vie plus élevées que ne le laisserait
penser leur PIB par habitant et le phénomène est inverse
aux États-Unis, au Danemark et en Hongrie.
Le graphique 1.1.4 montre la relation existant entre
l’espérance de vie à la naissance et les dépenses de santé
par habitant dans les pays de l’OCDE. Des dépenses de
santé par habitant relativement élevées s’accompagnent
généralement d’une espérance de vie à la naissance plus
grande, même si cette relation tend à être moins nette
dans les pays où les dépenses de santé par habitant sont
les plus élevées. Ici encore, le Japon et l’Espagne affichent
des espérances de vie relativement élevées par rapport à
leur niveau de dépenses de santé, et les États-Unis, le
Danemark et la Hongrie des espérances de vie relativement basses.
Les variations du PIB par habitant peuvent influer à la fois
sur l’espérance de vie et sur les dépenses de santé par
habitant. Beaucoup d’autres facteurs en dehors du revenu
national et des dépenses totales de santé peuvent aussi
expliquer les différences d’espérance de vie entre les
pays.
Définition et écarts
L’espérance de vie mesure le nombre moyen
d’années qu’une personne peut espérer vivre, sur la
base d’un ensemble donné de taux de mortalité
par âge. Cependant, les taux de mortalité par âge
effectifs d’une cohorte de naissance donnée ne
peuvent pas être connus à l’avance. Si les taux de
mortalité par âge diminuent (comme cela a été le
cas au cours des dernières décennies dans les pays
de l’OCDE), la durée de vie effective des individus
sera supérieure à l’espérance de vie calculée avec
les taux de mortalité actuels.
Chaque pays calcule l’espérance de vie de sa population selon des méthodologies qui peuvent varier
quelque peu d’un pays à l’autre. Ces différences de
méthodologie peuvent altérer la comparabilité des
estimations fournies par les pays car, en fonction de
la méthode, l’espérance de vie calculée d’un pays
peut varier d’une fraction d’année. L’espérance de
vie à la naissance pour l’ensemble de la population,
est calculée par le Secrétariat de l’OCDE, pour tous
les pays, en prenant la moyenne non pondérée de
l’espérance de vie des hommes et des femmes.
PANORAMA DE LA SANTÉ 2009 : LES INDICATEURS DE L’OCDE © OCDE 2009
1. ÉTAT DE SANTÉ
1.1. Espérance de vie à la naissance
1.1.1 Espérance de vie à la naissance, population totale,
1960 et 2007 (ou dernière année disponible)
2007
1960
Hommes
Japon
Suisse
Australie
Italie
Islande
Espagne
France
Suède
Canada
Norvège
Nouvelle-Zélande
Pays-Bas
Autriche
Allemagne
Belgique
Irlande
Finlande
Royaume-Uni
Grèce
Luxembourg
Corée
Portugal
OCDE
Danemark
États-Unis
République tchèque
Pologne
Mexique
République slovaque
Hongrie
Turquie
82.6
81.9
81.4
81.4
81.2
81.0
81.0
81.0
80.7
80.6
80.2
80.2
80.1
80.0
79.8
79.7
79.5
79.5
79.5
79.4
79.4
79.1
79.1
78.4
78.1
77.0
75.4
75.0
74.3
73.3
73.2
90
Années
80
70
60
50
40
Espérance de vie en années
84
Femmes
86.0
79.2
79.5
79.0
78.5
79.4
77.8
77.5
78.9
78.4
78.3
78.2
78.0
77.3
77.4
77.1
77.4
76.0
77.3
77.0
76.7
76.1
75.9
76.3
76.2
75.4
84.4
83.7
84.2
82.9
84.3
84.4
83.0
83.0
82.9
82.2
82.3
82.9
82.7
82.6
82.1
83.1
81.7
82.0
82.2
82.7
82.2
81.9
80.6
80.7
80.2
79.7
73.8
71.0
77.4
78.1
77.3
72.6
70.5
69.2
75.6
71.1
65
1.1.3 Espérance de vie à la naissance et PIB
par habitant, 2007 (ou dernière année disponible)
70
75
80
85
90
Années
1.1.4 Espérance de vie à la naissance et dépenses
de santé par habitant, 2007 (ou dernière année disponible)
Espérance de vie en années
84
JPN
82
ESP
NZL
KOR
GRC
PRT
SWE
JPN
82
CHE
ITA
80
1.1.2 Espérance de vie à la naissance, par sexe, 2007
(ou dernière année disponible)
ISL
FRA
DEU
NLD
BEL AUT
GBR
FIN
78
AUS
CAN
DNK
CHE
FRA
CAN
SWE
NOR
DEU
NZL
NLD
LUX
KOR
IRL
AUT
PRT
GBR
GRC FIN
BEL
DNK
ITA
ESP
NOR
80
IRL
LUX
78
USA
ISL
CZE
AUS
USA
CZE
76
76
POL
MEX
74
POL
MEX
SVK
74
HUN
R = 0.56
TUR
TUR
72
10 000
SVK
HUN
2
R 2 = 0.55
72
20 000
30 000
40 000
50 000 60 000
PIB par habitant (USD PPA)
Source : Eco-Santé OCDE 2009.
PANORAMA DE LA SANTÉ 2009 : LES INDICATEURS DE L’OCDE © OCDE 2009
0
2 000
4 000
6 000
8 000
Dépenses de santé par habitant (USD PPA)
1 2 http://dx.doi.org/10.1787/720775125483
17
1. ÉTAT DE SANTÉ
1.2. Espérance de vie à 65 ans
Au cours des dernières décennies, l’espérance de vie à
65 ans a considérablement augmenté, pour les hommes
comme pour les femmes, dans tous les pays de l’OCDE.
Parmi les facteurs qui expliquent les gains d’espérance
de vie à 65 ans figurent les progrès des soins médicaux,
combinés à l’amélioration de l’accès aux soins de santé,
de l’hygiène de vie et des conditions de vie avant et après
65 ans.
En 2007, l’espérance de vie à 65 ans dans les pays
de l’OCDE était en moyenne de plus de 20 ans pour les
femmes et de près de 17 ans pour les hommes
(graphique 1.2.1). Cela représente un gain moyen de près
de cinq ans pour les femmes et de quatre ans pour les
hommes depuis 1970. L’écart d’espérance de vie à 65 ans
entre hommes et femmes s’est donc légèrement creusé
entre 1970 et 2007 dans de nombreux pays.
De même, l’espérance de vie à 80 ans dans les pays de
l’OCDE a augmenté en moyenne plus vite pour les
femmes que pour les hommes au cours des 35 dernières
années (graphique 1.2.2). En 2007, l’espérance de vie à
80 ans était en moyenne de 9.1 ans (contre 6.5 ans
en 1970) pour les femmes et de 7.6 ans (contre 5.6 ans
en 1970) pour les hommes.
Au cours des dernières décennies, le Japon a enregistré
des gains d’espérance de vie à 65 ans particulièrement
élevés : plus de huit ans pour les femmes et six ans pour
les hommes entre 1970 et 2007. En conséquence, le Japon
était en 2007 le pays de l’OCDE où les femmes et les
hommes avaient l’espérance de vie à 65 ans la plus
longue : 23.6 et 18.6 ans respectivement. Ces gains au
Japon peuvent s’expliquer, en partie, par une forte baisse
de la mortalité liée aux maladies cardiovasculaires et aux
accidents vasculaires cérébraux chez les personnes
âgées. Beaucoup d’autres pays de l’OCDE ont aussi enregistré au cours des dernières décennies d’importantes
réductions de la mortalité liée à ces maladies, parmi les
personnes âgées (OCDE, 2003a; Moon et al., 2003).
Certains pays se classent différemment quand on compare l’espérance de vie à la naissance et celle à 65 ans. Les
femmes en Belgique, aux États-Unis et en NouvelleZélande ont un meilleur classement en terme d’espérance de vie à 65 ans, et il en va de même pour les hommes
aux États-Unis, en France et au Mexique. À l’inverse,
l’espérance de vie des hommes à 65 ans aux Pays-Bas, en
Suède et au Luxembourg est relativement moins longue
en comparaison avec les autres pays qu’à la naissance.
Dans les pays de l’OCDE, les gains de longévité enregistrés par les personnes âgées au cours des dernières
décennies, combinés à la baisse tendancielle des taux de
fécondité, concourent à une hausse régulière de la
18
p ro p o r ti o n d e p e rs o n n e s â g é e s ( vo i r a n n ex e A ,
tableaux A.2 et A.3).
| 4,499
|
2010AGPT0062_11
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,010
|
Entreprises, biodiversité et services écosystémiques. Quelles interactions et stratégies? Quelles comptabilités?
|
None
|
French
|
Spoken
| 7,338
| 11,512
|
difficultés de mise en œuvre des mesures agro-environnementales ; Richard et Trommetter, 2000) ? En conséquence, la comptabilité des changements (gains et pertes) de BSE pourrait devenir partie intégrante de l’activité de l’exploitant comme outil de gestion de ses interactions avec les BSE mais aussi d’identification et de modélisation des opportunités liées à de nouvelles sources de revenus pour des pratiques qui leur seraient favorables (Houdet et al., 2009a). Dans cette optique, on comprend que la question clef n’est pas si l’entreprise consomme trop de matières223, issues du monde vivant ou non, mais plutôt comment et dans quelles mesures les modèles de production et d’innovation génèrent des changements de BSE, à la fois du point de vue de la conservation de la biodiversité remarquable et des autres agents utilisant certains SE affectés par l’exploitation ; une telle vision permettant d’englober nombre de problématiques environnementales conventionnelles (consommation d’eau, pollutions diverses). Une telle comptabilité analytique ne permettrait pas uniquement de quantifier et de gérer la dépendance directe et indirecte de la firme aux BSE – c’est-à-dire comptabiliser son mode de valorisation économique de certaines composantes de la biodiversité, elle permettrait aussi de qualifier la nature de cette dépendance vers l’adoption potentielle de modèles de gestion adaptés aux BSE influencés. Pour illustrer nos propos, prenons le cas de l’usage des ressources fossiles : avec l’épuisement progressif des stocks, les acteurs économiques pourraient se tourner vers des alternatives comme les ressources renouvelables biologiques (ex. agro-carburants à partir de cultures de plantes ou d’algues) : le secteur pétrolier abandonnerait alors son activité d’extraction pour adopter celle de gestionnaire d’agro-écosystèmes terrestres ou aquatiques, ce qui impliquerait des changements significatifs en matière de gestion des impacts sur les BSE. En d’autres termes, si la minimisation des consommations de certains FMB peut s’avérer pertinente dans certains contextes224, le défi principal consiste à investir systématiquement, d’un point de vue spatio-temporel, dans la gestion de la viabilité des BSE (ex. une approche écosystémique de la gestion des pêcheries ; Cury et Christensen, 2005) ; 223 C’est le cumul des consommations intraet intersectorielles, au niveau d’une région, d’une nation ou globalement, qui peuvent induire des conséquences irréversibles sur les écosystèmes dont sont issues l’ensemble des matières utiles aux activités économiques. 224 A titre d’exemples, la réduction de la dépendance aux ressources fossiles pour minimiser les émissions de CO2, ou de la dépendance aux intrants pour minimiser les effluents agricoles. cela tout en sécurisant (a) des objectifs de production et (b) de nouvelles sources de revenus pour des pratiques favorables à la biodiversité remarquable et aux SE utilisés par autrui, localement, au plan régional ou globalement (voir encadré 5 pour le cas d’une activité de traitement des eaux usées à Berlin). Dans le contexte d’une activité de production, ce défi pourrait se formuler de la manière suivante: Valoriser l’usage des structures, fonctions et processus écosystémiques sur les parcelles exploitées afin de minimiser la sécurisation de bénéfices écosystémiques via l’achat d’intrants ; ce qui impliquerait de comprendre et de gérer précisément la biodiversité fonctionnelle (ex. annexe 8, Diaz et al., 2007) ; Favoriser les innovations technologiques et organisationnelles vers des pratiques agricoles qui favorisent la diversité, variabilité et hétérogénéité des systèmes vivants (Houdet 2008; Houdet et al., 2009b), en particulier au niveau paysager et / ou des bassins versants ; Favoriser les innovations institutionnelles (mécanismes d’assurance, incitations financières) pour sécuriser les retours sur investissements associés à des changements de pratiques devant s’inscrire sur le long terme ; ce qui pourrait renvoyer à la fois (1) à différentes formes de PSE pour que ces nouvelles pratiques soient plus rentables que celles associées à des sources conventionnelles de revenus (ex. compensation monétaire directe, subvention dédiée, paiements pour atteinte de niveaux spécifiques de BSE ; Boody et al., 2005 ; Hackl 2007 ; Pascual et Perrings, 2007 ; Swinton et al., 2007) et (2) à des mécanismes permettant de dissuader les agents à s’engager dans des pratiques générant des impacts négatifs sur les BSE (ex. fiscalité progressive de type « bonus malus ») (sous-section 4.3.2). On ne peut que souligner la pertinence de la comptabilité analytique de gestion pour le suivi des interactions entre firme et BSE. Cela implique toutefois de dépasser le périmètre traditionnel de la CGE, typiquement le périmètre foncier du site de production, vers une approche socio-écosystémique des trajectoires des entreprises (ex. encadré 5). Aussi prometteuse pour la viabilité des BSE que soit une telle comptabilité, son volet dédié au suivi des impacts sur la biodiversité et les SE utiles à d’autres agents économiques demeure conceptuelle à ce stade : des études de cas plus poussées seraient nécessaires afin de construire et de tester les indicateurs les plus pertinents selon les contextes, aussi bien socioécosystémique qu’en termes d’objectifs pour l’exercice, comme leur intégration au système organisationnel de l’entreprise ou leur usage au sein de différentes interfaces du système de production (ex. éco-conception du produit, évaluation d’alternatives d’investissement). En outre, l’ensemble de la démarche comptable que nous proposons se fonde (a) sur le bon 221 vouloir des entreprises quant à la formalisation de la prise en compte des conséquences de leurs interactions avec les BSE (voir les typologies de comportements stratégiques des firmes : tableau 6, sous-section 2.3.3) et (b) sur leur capacité à mobiliser des ressources dans cette optique. Notamment, des travaux de recherche complémentaires seraient nécessaires pour développer une comptabilité analytique de gestion opérationnelle, c’est-à-dire pouvant être à la fois contextuelle d’un point de vue spatio-temporel et intégrée au système d’information global de l’entreprise. Aussi, si une CGE intégrant les FMB et SE influençant l’activité peut s’avérer utile à certaines entreprises dans une logique de meilleure maîtrise des coûts (privés) de production, la généralisation d’une comptabilité analytique de gestion dédiée aux impacts sur les BSE dépendrait entièrement des attentes des parties prenantes, c’est-à-dire à leurs demandes en matières d’informations concernant les conséquences socioécologiques des interactions entre activités de la firme et BSE ; thématique que nous abordons dans la prochaine section. Encadré 5 : comment systématiquement intégrer la valorisation des pratiques favorables à la biodiversité au cœur des stratégies d’entreprise ?
Le
cas
de
BWB
à Berlin. En complément des travaux présentés dans les encadrés 3 (pp. 199-201) et 4 (pp. 209-211), Gonzalez et Houdet (2009) ont montré que l’entreprise BWB était essentiellement concernée, au niveau de la station d’épuration des eaux usées de Wassmanndorf, par la gestion des interfaces d’interactions avec les BSE 1 et 3 (en référence à la figure 15, p. 97). Dans le cadre de l’interface 1, la firme s’intéresse essentiellement, sur la base des clauses contractuelles gouvernant son activité : (a) A la gestion des bénéfices retirés des SE de purification des eaux usées (40% des coûts opérationnels pour mémoire) et de digestion des boues (60% des coûts opérationnels sont liés à la gestion des boues, et en particulier au processus de digestion de ces dernières) générés par l’activité de divers groupes fonctionnels de micro-organismes. BWB en contrôle l’activité en manipulant les conditions environnementales au sein des différents bassins le long du processus de traitement (encadré 4, ES1 – B). (b) Aux volumes d’eaux usées et à leurs contenus (déchets solides, concentration de polluants) entrant dans la station d’épuration, quotidiennement et sur le moyen / long terme (pour la prévision du dimensionnement des équipements et investissements qui en découleraient) ; ces flux étant influencés par les changements de SE (régulation du climat, cycles hydrologiques – rétention par la végétation versus surfaces imperméables) au sein des zones urbanisées dépendant de la station de Wassmanndorf (encadré 4, ES1 – A). Pour l’interface 3, la station de Wassmannsdorf doit satisfaire des normes contractuelles pour les charges polluantes résiduelles contenues dans les eaux sortant de la station d’épuration. Toutefois, ces normes renvoient à des indicateurs de pression sur les milieux aquatiques en aval (facteurs de changements de BSE), si bien qu’ils ne prennent directement en compte: (a) ni les influences de l’activité de traitement sur l’évolution de la biodiversité remarquable (SE culturel, et SE produit hors revenu direct) et sur celle des SE utilisés par d’autres acteurs (encadré 4, ES2 – B), (b) ni les impacts sur les BSE des infrastructures de collecte et de traitement des eaux usées (encadré 4, ES2 – A). Ce constat soulève les questions suivantes : comment la viabilité de la biodiversité peut-elle devenir une variable stratégique clef au cœur des processus de décision de BWB / Wassmanndorf ? Comment valoriser les pratiques favorables à la biodiversité remarquable et aux SE utiles à d’autres agents pour l’ensemble des interfaces d’interactions identifiées dans l’encadré 4 (pp. 209211) ? Dans l’optique d’apporter des éléments de réponse à ces interrogations, Gonzalez et Houdet (2009) soulignent que les principaux défis pour BWB résident au cœur de l’interface 2 (figure 15, p. 97) : les clauses contractuelles ne prennent pas directement en compte les BSE (absence de politique claire, d’objectifs / moyens quantifiés : pas de responsabilité contractuelle / légale) et il n’existe pas de système d’information dédié à l’engagement des parties prenantes pour les interactions entre les activités de l’entreprise (stations d’épuration, réseaux de collecte et de distribution) et les BSE. En conséquence, les auteurs proposent d’explorer trois approches complémentaires qui seraient à intégrer au cœur des stratégies de BWB, vers la valorisation des pratiques favorisant la diversité, variabilité et hétérogénéité des systèmes vivants (Houdet et al., 2009b) au sein des socioécosystèmes avec lesquels l’entreprise interagit : A. Intégrer le foncier géré par BWB aux continuités écologiques : notamment, les espaces verts de la station d’épuration de Wassmanndorf pourraient faire l’objet d’une gestion favorisant la biodiversité ordinaire et remarquable (gestion différenciée, Venn 2001 ; voir vue aérienne des espaces environnants ladite station ci-dessous). Dans cette optique, les coûts d’une gestion différenciée des espaces verts comprendraient typiquement: (a) un investissement initial pour des études de faisabilité et l’élaboration d’un plan de gestion (environ 6500€ pour un site de 4 hectares avec 40% d’espaces verts), (b) des coûts optionnels de suivi (2000€/an), et (c) des coûts récurrents d’entretien comparables à ceux d’une gestion conventionnelle225. B. Promouvoir les techniques d’ingénierie écologique (Albaric 2009 ; Byers et al., 2006 ; Kadlec et Wallace, 2009 ; Toet et al., 2005) sur l’ensemble des infrastructures avec des objectifs en matière de BSE co-construits avec l’ensemble des parties prenantes, dont le Pays de Berlin et les 225 Les économies réalisées par l’arrêt de l’achat de produits phytosanitaires peuvent être compensées par des augmentations de coûts de main d’œuvre. Dans la plupart des cas, ces variations sont modestes pour la gestion du budget d’une station d’épuration (documents internes, Veolia Environnement). 223 usagers / propriétaires fonciers adjacents. Pour peu qu’un cadre équitable de planification et de prise de décision soit mis en place (Jewitt 2002; Strange et al., 1999), repenser les équipements / infrastructures de collecte et de traitement des eaux usées en diversifiant les systèmes vivants utilisés pour dépolluer (ex. marais artificiels) pourrait conduire à une meilleure disponibilité de SE à différents groupes d’usagers. Par exemple, l’installation d’îlots flottants, composés de plantes / microorganismes (idéalement indigènes, ou non invasifs si exogènes), au sein des cours d’eau et canaux en aval de la station de Wassmanndorf pourrait réduire les charges polluantes résiduelles (dont les métaux lourds ; Headley2006 ; Sun 2009), fournir des habitats propices à la faune (Nakamura 2008) et améliorer la qualité du paysage (SE culturel) ; et cela à un coût d’environ 65€/m2 selon Laura Albaric (2009). C. Inclure des critères de performance complémentaires dédiés aux BSE au sein des clauses contractuelles sur lesquelles est fondée l’activité de BWB : négociées avec les parties prenantes, ces nouveaux critères impliqueraient des mécanismes de financement appropriés (nouveaux investissements, potentiels démantèlements d’infrastructures imperméables ou opérant comme barrières aux déplacements des organismes vivants) et pourraient conduire à des changements en matière de sources de revenus. En effet, BWB pourrait être rémunéré pour des pratiques (et / ou résultats) qui favorisent simultanément la biodiversité remarquable et ordinaire, et, en conséquence, divers SE sur l’ensemble des réseaux de collecte et de traitement des eaux usées. Vue aérienne des espaces environnant la station d’épuration de Wassmanndorf (WWTP), dont les différentes catégories d’aires protégées (Google Maps; World Database on Protected Areas, URL : www.wdpa.org/). Enfin, pour opérationnaliser chacune de ces approches, il pourrait s’agir pour BWB de développer un système d’information comptable qui associerait coûts et revenus avec des indicateurs de suivi des BSE visés par de nouvelles clauses contractuelles. Cela impliquerait très probablement la co-construction d’indicateurs avec les parties prenantes via de la géomatique, vers une responsabilité et gestion partagée des espaces gérés par BWB et ceux qui leur sont adjacents, comme les fermes et bois traversés par les canaux, et / ou associés, à l’image des rivières influencées par les charges résiduelles cumulées de différentes station d’épuration et / ou par les effluents non traités d’autres activités économiques. Cela ouvrirait en outre la porte à l’émergence de systèmes d’informations coconstruits et cogérés par l’ensemble des acteurs impliqués.
SECTION 4.2 – L'EVALUATION DE LA PERFORMANCE D'ENTREPRISE EN MATIERE DE BSE : INTEGRER COMPTABILITE GENERALE ET COMPTABILITE EXTRA-FINANCIERE
La section précédente visait à proposer des éléments méthodologiques pour l’élaboration de systèmes d’informations comptables faisant le lien entre informations comptables conventionnelles et indicateurs d’évolution des BSE. Ces SIC ont pour vocation d’être utilisés au sein des systèmes d’organisation et de production des firmes (tableaux 10 et 14), c’est-à-dire pour répondre aux objectifs de la direction et des différents niveaux de responsabilité. Au-delà de ces besoins internes, cette section vise à proposer les fondements conceptuels de SIC destinés à communiquer avec les parties prenantes de l’organisation (système institutionnel) par rapport à la performance de sa gestion de ses interactions avec les BSE (vers un Bilan Biodiversité ; Houdet 2008, Houdet et al., 2009a). Dans cette optique, nous articulons cette section sur trois étapes complémentaires : 1. Identifier les principaux enjeux et principes d’une comptabilité en matière de BSE qui serait destinée aux parties prenantes (4.2.1) ; 2. Proposer les fondements conceptuels d’une comptabilité rendant compte de la dépendance aux BSE et des modes d’appropriation et de création de valeur associés (4.2.2) ; 3. Proposer les fondements conceptuels d’une comptabilité rendant compte des conséquences socio-écosystémiques des activités de l’entreprise (4.2.3).
4.2.1 Enjeux et principes d’une comptabilité d’entreprise en matière de BSE destinée aux parties prenantes
Comme nous l’avons vu précédemment (sous-section 3.3.3), les normes portant sur la comptabilité générale relèvent traditionnellement de la responsabilité des agences nationales de normalisation comptable. Face à la pluralité des méthodes d’un pays à l’autre et les difficultés qui en résultent pour comparer les états financiers des entreprises, l’International Accounting Standard Board (IASB) promeut, depuis plusieurs années, l’adoption de normes (International Financial Reporting Standards ou IFRS) qui permettrait la standardisation internationale des informations comptables communiquées par les firmes pour satisfaire les besoins informationnels de leurs parties prenantes (évaluation de la performance et de la santé 226 financière de l’entreprise). Adoptées par un nombre croissant de pays226, ces normes comptables sont de plus en plus critiquées227 (Capron et al., 2006 ; Colasse 2007), en particulier suite à la crise financière, notamment pour: les valeurs sous-jacentes qu’elles soutiennent, car la comptabilité ne constituent pas une technique neutre mais se fonde sur des choix sociaux et des valeurs228 et leurs implications socio-économiques, notamment les conséquences de la financiarisation de la comptabilité générale : ex. titrisation de créances, dépréciation non systématique de la survaleur (« goodwill »). Toutefois, les responsabilités d’entreprise relatives au respect des normes comptables représentent seulement une partie des enjeux que l’on pourrait identifier comme clefs pour les systèmes institutionnels des firmes : comme le soulignent Bhimani et Soonawalla (2005), il existerait une continuité conceptuelle pour situer la comptabilité générale (« corporate financial reporting », ou « CFR ») et la gouvernance d’entreprise (« corporate governance », ou « CG ») sur le même plan que la communication externe en matière de RSE (volontaire ou réglementée) et les demandes, attentes ou obligations (contractuelles ou légales) de création de valeur pour les parties prenantes (« stakeholder value creation », ou « SVC »). Si la littérature suggère qu’une bonne gouvernance d’entreprise est liée à une plus grande transparence et à des états financiers lucides (Mallin 2002), la grande diversité des parties prenantes qui pourraient être affectées par les activités de l’entreprise rend la tâche de développer des standards socialement acceptés en matière de RSE particulièrement difficile (Bhimani et Soonawalla, 2005) ; d’où les critiques formulées à l’encontre des standards du GRI (sous-section 3.3.3) et surtout de ses applications au sein des rapports extra-financiers publiés par nombre d’entreprises (« greenwashing »229 ; Hubbard 2009 ; Laufer 2003). 226 Ce processus de normalisation internationale a suscité de nombreux débats et controverses (ex. sur les méthodes de dépréciation de la survaleur), avec des déclinaisons nationales des IFRS contenant parfois d’importants amendements par rapport aux textes de l’IASB. 227 Selon Richard et Collette (2008, p. XX), les IFRS seraient obsolètes car elles vont à l’encontre des besoins fondamentaux du monde actuel. 228 En l’occurrence, la « juste valeur » prônée par les IFRS pour les comptes des groupes côtés viserait la accélérer l’apparition de profits, y compris potentiels, dans le cycle d’investissement ; cela afin de sécuriser, via la distribution de dividendes à court terme, leur appropriation par les actionnaires (Richard et Collette, 2008). 229 Selon l'étude britannique Assure view (www.corporateregister.com), les trois-quarts des rapports développement durable publiés dans le monde en 2008 ne font l'objet d'aucune vérification externe. En France, de récents travaux de l’Observatoire sur la responsabilité sociale des entreprises (www.orse.org) constatent 227
Figure 35 : le Continuum de Responsabilités d’Entreprise en matière de biodiversité et de services écosystémiques (Houdet et al., 2009a, p. 31 ; adapté de Bhimani et Soonawalla, 2005),
de la conformité
aux
législations
/
normes obligatoires à l’évaluation de la performance. Chaque étape le long de l’axe aborde un nombre croissant d’enjeux relatifs aux interactions entre l’entreprise et ses parties prenantes. Ce continuum souligne ainsi la diversité des approches qui pourraient être explorées vers une prise en compte systématique des BSE dans les stratégies et pratiques d’entreprise relevant de leur système institutionnel. C’est pourquoi Houdet et al. (2009a) se demandent si les changements en matière de besoins informationnels des parties prenantes et les pressions sociales qui en résultent vont conduire vers une réduction du fossé entre les deux extrêmes du continuum de responsabilités d’entreprise en matière de BSE (figure 35), c’est-à-dire (1) au développement d’institutions (nouveaux modes de régulation) permettant d’assurer que les (2) redditions de comptes incluent l’évaluation de la performance de la gestion de leurs interactions avec les BSE (Bilan Biodiversité)230 et, dans cette optique, (2) se fonde sur des valeurs partagées (compromis négociés) par l’ensemble des parties prenantes, en particulier les communautés locales et les plus faibles d’entre elles. Cela nous conduit inévitablement à nous intéresser au septième critère de classification des comptabilités environnement de Richard (2009), c’est-à-dire au concept de résultat (sous-section 3.3.1). Une performance également que l’accessibilité et la vérification des données demeurent des points particulièrement problématiques pour nombre d’entreprises. 230 Cela aurait pu constituer un des éléments du projet de loi Grenelle 2 du gouvernement français ; URL : www.vie-publique.fr/actualite/panorama/texte-discussion/projet-loi-portant-engagement-national-pourenvironnement.html (consulté le 2 mai 2010). 228 d’entreprise en matière de BSE s’intéresse nécessairement à la diversité de valeurs que les parties prenantes attachent à la biodiversité et aux SE qui leur sont utiles, si bien qu’une telle comptabilité devrait rendre compte de la création de valeur pour ses parties prenantes sur ces thématiques, d’où la nécessité de communiquer sur des indicateurs de performance complémentaires aux indicateurs monétaires associés aux bilans et comptes de résultat conventionnels (ex. résultat net de charges, taux de distribution de dividendes). Principaux responsables pour la collecte des données Flux de matières, gaz, liquides (entrées, stocks, sorties) Indicateurs de biodiversité fonctionnelle maîtrisée par l'activité Indicateurs de services écosystémiques influençant l'activité Indicateurs de biodiversité associée à l'activité Indicateurs de biodiversité remarquable et de services écosystémiques utiles à d’autres agents impactés par l'activité Echelle temporelle Agrégation des données au niveau du groupe Entreprises Cycle de vie de Site de production / actif l'entreprise et de ses foncier, produits, durée cycle de vie du produit d'engagement des actifs Possible pour chaque type de flux Entreprises Cycle de vie de l'entreprise, durée d'engagement des actifs (et potentiellement durée de vie des produits) A priori oui, par type d’activité (sites de production similaires) ou produit Site de production / actif foncier pour les Suivi sur le long sources et trajectoires terme nécessaire, contrôlées par la firme ; car possibles partenariats avec parties implications d’
autres pren
antes pour les agents et territoires
dynami
ques au-delà de (sources et
ses frontières juridi
ques
trajectoires
de SE) et fonc
ières
A priori oui, par type d’activité (sites de production similaires) ou produit Entreprises, partenariats avec parties prenantes Echelle spatiale Site de production / actif foncier, cycle de vie du produit Entreprises, partenariats avec parties prenantes Site de production / actif foncier, cycle de vie du produit
Essentiellement
partenariats avec parties prenantes essentiels
Site de production
/
actif foncier pour les sources et trajectoires
contrôl
ées
par
la firme
; parten
ariats avec
parties prenantes
pour les dynamiques au-delà
de ses front
ières
juridiques et foncières Suivi sur
le long
terme néce
ssaire
,
pouvant impliquer de multiples territoires et agents A priori oui
, par type d’activité (
sites
de production
similaires) ou produit Suivi sur le long terme nécessaire, pouvant impliquer de multiples territoires et agents A priori oui, par type d’activité (sites de production similaires) ou produit Tableau 23 : vers une comptabilité en matière de BSE dédiée aux parties prenantes périmètres spatio-temporels des indicateurs à suivre et possibilité d’agrégation 229 Dans l’optique de réduire le fossé entre création de valeur pour les actionnaires et créations de valeurs pour les parties prenantes, il convient de souligner les points suivants: 1. Nous considérons comme limitées, voire contreproductives, les tentatives d’intégration des externalités positives et négatives dans les états financiers des entreprises (voir l’ensemble des raisons mises en exergue dans la sous-section 3.3.3), comme cela a été réalisé pour BSO / Origin (Huizing et Dekker, 1992). En effet, les écritures comptables de ces externalités ne satisfont pas les définitions valables en comptabilité générale pour la comptabilisation d’un actif (en cas d’externalité positive231, en raison d’une recette bien trop incertaine voire illusoire) ou d’un passif (en cas d’externalité négative, en raison cette fois-ci d’une dépense illusoire), ce qui donnerait lieu à des états financiers peu réalistes (Houdet et al., 2009a). Cela s’explique par l’absence (a) de transaction sous-jacente (pas de recette ou d’avoir, ni de paiement ou de créance contractée) aux quantités monétaires produites par l’évaluation économique d’une externalité (ce qui ne peut donc pas contribuer à refléter l’état financier réel de la firme) et (b) d’implication ou conséquence tangible aussi bien pour les objets environnementaux évalués (pas d’objectifs, ni de contraintes écologiques) que pour l’organisation rendant des comptes. Pour les mêmes raisons, comptabiliser la consommation de ressources renouvelables ou épuisables par des écritures comptables sous forme de dette à la nature (consommations monétarisées aux coûts historiques d’achats), aussi utile que cela pourrait être dans le cadre d’une CGE cherchant à minimiser les coûts internes à l’organisation (comptabilisation du gaspillage ; sous-section 3.3.2), n’est pas une démarche à suivre dans le cadre d’une comptabilité générale.
2. En revanche, si une externalité impliquant la firme et un autre agent économique donne finalement lieu à une transaction entre eux232, cette transaction s’inscrirait naturellement dans le cadre de la comptabilité générale: des écritures comptables seraient enregistrées dans le SIC de l’entreprise. C’est ce qu’on appelle « internaliser une externalité » du point de vue de la comptabilité générale (Houdet et al., 2009a) ; les résultats des négociations entre les deux parties (communauté locale, état) conditionnant la transaction, et pouvant impliquer des évaluations économiques contradictoires de l’externalité en question. Cette transaction ne représenterait jamais un contrat avec l’environnement ou la nature 231 Les efforts portent souvent sur l’évaluation des externalités négatives, or chercher à inclure les externalités générées par l’entreprises dans ses états financiers nécessiteraient également à inclure celles qui sont favorables à autrui (Houdet et al., 2009a). 232 En fonction de standards non-financiers en matière d’environnement pouvant conduire à des changements de pratiques (dont transactions) imposés ou négociés. 230 (comme le sous-entend une dette à la nature) mais constituerait nécessairement une transaction avec un autre agent économique qui porterait sur des droits de propriété (usus, fructus, abusus). Par exemple, le contrat pourrait porter sur des actions (ou inactions) ou moyens spécifiques afin de satisfaire des objectifs quantifiés / spécifiés ou non (ex. paiements réalisés par Vittel en faveur d’agriculteurs afin que ces derniers changent de pratiques agricoles, c’est-à-dire qu’ils renoncent aux droits d’usage de certains intrants et aux modes d’exploitation de l’agro-écosystème associés ; Déprés et al., 2008). De même, pour les émissions de GES en Europe, l’internationalisation des externalités du point de vue de la comptabilité générale a nécessité, au préalable, des négociations (a) sur les objectifs collectifs de réduction d’émissions, (b) des quotas pour chaque secteur d’activité impliqué et (c) des mécanismes de régulation des échanges économiques entre agents (marchés de droits d’émissions, taxation des surplus d’émissions). Les transactions liées aux droits d’émission de GES (taxation des surplus d’émissions, ventes / achats de quotas non utilisés) ont ainsi conduit à l’émergence d’écritures comptables dédiées au sein des SIC d’entreprise (quotas comme immobilisations incorporelles, cession de quotas comme produits, achat de quotas comme charges ; Jones 2008) : celles-ci ne sont donc pas fondées sur l’évaluation économique des externalités liées aux GES, même si divers modèles économiques incluant l’évaluation d’externalités ont pu être mobilisés pour tester des mécanismes alternatifs de régulation des marchés de droits de GES. Il ne s’agit pas pour autant de rester dans le schéma actuel de reddition de comptes, avec d’un côté (a) la présentation considérée comme rigoureuse d’informations comptables monétaires (bilans et comptes de résultat annuels, réglementés et audités) permettant de juger de la santé financière de l’entreprise (informations destinées principalement aux actionnaires, investisseurs potentiels et pouvoirs publics), et de l’autre, (b) des informations extrafinancières parcellaires, la plupart du temps non auditées233, qui sont présentées sous la forme de rapports dédiés relevant souvent bien plus de l’exercice publicitaire que d’une véritable démonstration et réelle volonté de transparence en matière de performance environnementale (Hubbard 2009 ; Laufer 2003). S’il convient de soutenir la pertinence d’une comptabilité extra-financière afin de suivre les dynamiques d’interactions de la firme avec l’environnement (modèle de soutenabilité forte) et la performance des mesures mises en œuvre par celle-ci en la matière, comptabiliser les dépendances de la firme aux BSE et les impacts de l’entreprise 233 Si cette CEFE est auditée, cela se fait sans réel engagement de responsabilité de la part des auditeurs ; en raison (selon les pays) de l’absence (a) de sanctions en cas de non respect de la loi (ex. loi NRE en France) ou (b) d’un cadre législatif clair destiné à la réguler. 231 sur la biodiversité remarquable et les SE utiles à d’autres agents constitue une opportunité inédite pour formaliser des liens entre comptabilité générale et comptabilité extrafinancière, avec une possible refonte des normes et formats de présentation relatifs aux informations comptables communiquées aux parties prenantes (Houdet et al., 2009a). Cela impliquerait de dépasser la logique actuelle de CEFE (ex. GRI 2006) qui (a) se focalise essentiellement sur la mesure des flux (entrées et sorties de matières, gaz ou liquides) comme indicateurs d’impacts sur les milieux (en ignorant donc l’évolution des écosystèmes impactés, excepté en matière de biodiversité remarquable : sous-section 3.3.3), (b) ne formalise pas de liens entre flux, impacts et évolution des BSE234 et (c) adopte la plupart du temps des comptes consolidés comme en comptabilité générale (perte des informations contextuelles, essentiellement pour les dimensions incommensurables de la biodiversité). En d’autres termes, un enjeu majeur consisterait à pouvoir resituer les dynamiques d’interactions entre firme et BSE dans leurs contextes sociaux, spatiaux et temporels, aussi bien pour les actifs que les produits de l’entreprise ; c’est-à-dire à rendre compte de la manière dont les trajectoires d’entreprises s’inscrivent au sein des écosystèmes, des territoires. Ce dernier point renvoie à une approche écosystémique de l’évolution de la firme si bien que le développement d’une comptabilité d’entreprise en matière de BSE destinée aux parties prenantes impliquerait d’élargir le cadre traditionnel d’indicateurs utilisés par l’entreprise, c’est-à-dire d’aller au-delà du suivi de ce qui se passe au sein ou à la limite de ses frontières juridiques ou foncières (tableau 23 ci-dessus ; en lien avec la problématique de la définition du périmètre de responsabilité : figure 28). Dans cette optique, des informations produites par des indicateurs co-construits et cogérés avec les parties prenantes (impliquant des modes de gouvernance transparents) pourraient être utilisées pour formaliser les liens entre activités de l’entreprise et dynamiques de BSE opérant à des échelles locales (ensemble de terrains adjacents), régionales (bassin versant, écorégion) et globales (coopération entre firmes le long des chaînes d’approvisionnement) (Houdet et al., 2009a). Nous retenons deux raisons principales en la faveur d’une telle évolution comptable. Tout d’abord, cela pourrait être la seule option pour assurer la légitimité des informations publiées en matière de BSE et, donc, de sécuriser leur acceptation par les parties prenantes. Deuxièmement, suivre les dynamiques écosystémiques à l’ensemble des échelles spatio-temporelles d’organisation des 234 Seul l’indicateur EN25 proposé par le GRI (2006) s’intéresse explicitement aux liens entre effluents et évolution des milieux impactés : « identification, taille, statut de protection et valeur de biodiversité des sources d’approvisionnement en eau et de leur écosystème connexe significativement touchés par l’évacuation et le ruissellement des eaux de l’organisation ». systèmes vivants jugées pertinentes par les parties prenantes ne serait pas à la portée ou ne relèverait pas de la responsabilité directe de la plupart des entreprises, en particulier les PME. Par exemple, après la vente d’un actif foncier, qui serait chargé de suivre les différents indicateurs de BSE relatifs à cet espace ? En conséquence, il serait judicieux qu’une ou plusieurs organisation(s) indépendante(s) soi(en)t chargé(es) de réaliser ce travail (selon l’enjeu, l’objet d’analyse ou l’échelle en question) ; celles-ci pouvant être en partie financé(es) par les firmes en fonction de l’évaluation de leur performance en matière de BSE (voir la sous-section 4.3.2 ainsi que l’interface « gouvernance locale » pour la comptabilité entre agents à propos des BSE au sein de la sous-section 4.3.1). 6. Ainsi, les écritures comptables relevant de la comptabilité générale pourraient être différenciées selon la nature des interactions avec les BSE impliqués dans les évènements donnant lieu à leur enregistrement dans les SIC dédiées à la production d’états financiers pour les parties prenantes ; en particulier, selon les modes d’appropriation de bénéfices retirés de SE (écritures comptables contingentes à certains SE) et les conséquences socio-écologiques liées à ces évènements. Les normes comptables pourraient ainsi évoluer vers l’inclusion de méthodologies expliquant (1) comment différencier les informations comptables selon leurs liens directs et indirects avec les BSE et (2) comment développer et renseigner, en partenariat avec les parties prenantes si nécessaire (tableau 23), des indicateurs non-monétaires complémentaires (quantitatifs et / ou qualitatifs, selon les besoins) relatifs aux dynamiques des BSE influencés par les activités, actifs et produits de la firme. Cela conduirait au développement de rapports annuels235 intégrés mobilisant à la fois des données comptables monétaires et des indicateurs de BSE ; ces derniers visant à représenter les diverses valeurs partagées avec les parties prenantes par rapport aux objets / dynamiques sujets à la modélisation comptable (Houdet et al., 2009a). 7. Ces informations communiquées pourraient alors être utilisées pour (a) noter l’organisation rendant des comptes en fonction de la nature de ses interactions avec les BSE et potentiellement (b) évaluer la part qui lui serait imputable des coûts nécessaires au maintien et / ou à la restauration des écosystèmes avec lesquels elle interagit ou a interagi, directement ou indirectement via sa chaîne d’approvisionnement (firmes-réseaux), le financement d’un projet ou l’activité d’une entreprise dans laquelle elle a des actions (Houdet 2008). De telles évaluations donneraient lieu à des négociations entre la firme et ses parties 235 Dans certains cas, des communications plus régulières pourraient être réalisées selon l’enjeu, ce qui conduirait à l’émergence d’autres formats / médias de communication. 233 prenantes236 et éventuellement à des transactions impliquant des moyens, des objectifs ou / et le respect de standards spécifiques en matière de BSE. Si ces transactions satisferaient sans aucun doute les critères de la comptabilité générale pour l’enregistrement d’écritures comptables, elles auraient en revanche des notations très différentes en matière de BSE. Leurs montants pourraient être calculés sur la base d’analyses coûts-efficacité par rapport à des objectifs ambitieux en matière de BSE ; objectifs institutionnalisés aux niveaux international (conventions comme la CDB), national (législations nationales) et / ou local (accords entre parties prenantes), nécessitant la gestion des interactions entre agents via la conceptualisation, la mise en œuvre et le financement de nouveaux modes de gouvernance et de régulation (sous-section 4.3.2). 4.2.2 Rendre compte de la dépendance aux BSE et des modes de création de valeur actionnariale associés
Cette sous-section vise à proposer des pistes méthodologiques pour que tout type d’organisation puisse rendre compte de sa dépendance à la biodiversité et aux services écosystémiques, c’est-à-dire caractériser ses modes d’appropriation et de création de valeur actionnariale associés aux BSE (Houdet et al., 2009a). Toutefois, nous ne cherchons pas à présenter l’ensemble des éléments constitutifs, méthodologies et besoins informationnels liés aux modifications que ces enjeux impliqueraient pour les normes comptables : cela nécessiterait des travaux et études de cas complémentaires, et, surtout, des débats publics mobilisant l’ensemble des parties prenantes aux niveaux national et international. Aussi, nous nous concentrons sur l’analyse des implications, en matière de comptabilité destinée aux parties prenantes, des deux approches comptables précédemment proposées pour répondre à des objectifs organisationnels : la comptabilité des flux de matières issues de la biodiversité (et des écosystèmes) (sous-section 4.1.1), et la comptabilité des services écosystémiques influençant l’activité de la firme (sous-section 4.1.2). En d’autres termes, cela revient à se demander comment ces méthodologies, relevant d’une comptabilité de gestion environnementale, peuvent-elles être utilisées pour caractériser la manière (a) dont l’entreprise valorise les BSE et (b) prend en compte le partage équitable des avantages qu’elle en retire (Houdet et al., 2009a). Dont potentiellement des évaluations économiques d’externalités. Dans cette optique, il s’agit, en s’appuyant sur les règles de la comptabilité générale, de partir de l’analyse des évènements donnant lieu à des écritures comptables comme l’achat de matières premières, la vente d’un produit ou service, la contraction d’un emprunt, l’achat d’un actif corporel, incorporel (ex. brevet) ou financier, l’émission d’actions, ou encore la distribution de dividendes. Pour chaque évènement, l’entreprise devrait fournir des informations quantifiées sur : (a) les flux (matières, énergie, liquides – dont FMB) consommés / émis, relevant de sa responsabilité directe, sur le plan foncier ou juridique, ou non, c’est-à-dire allant au-delà de son contrôle direct (ex. cycle de vie de ses produits – annexe 9, voire des actifs cédés) ; (b) les modes d’appropriation de bénéfices retirés des SE utiles aux activités de la firme ; si cela est applicable compte tenu de la nature de l’évènement donnant lieu à des écritures comptables. Cela impliquerait que la firme puisse suivre précisément ces informations dans l’espace et le temps237, en partenariat avec ses parties prenantes avec lesquelles elle a des relations commerciales (chaîne d’approvisionnement, achats / cessions d’actifs) ; ce qui nécessiterait des investissements majeurs dans des SIC permettant de relier informations comptables traditionnelles et celles relatives aux BSE (ex. traçabilité le long des chaînes d’approvisionnement). Sur cette base, il serait possible de différencier les évènements et écritures comptables, vers la production d’annexes aux états financiers présentant les flux et modes d’appropriation de BSE associés aux différentes classes comptables des bilans (actifs, passifs) et comptes de résultats (revenus et charges). Selon Kurt Ramin238 de l’International Accounting Standards Committee (IASC), il est déjà possible, grâce à la géomatique, d’enregistrer les coordonnées géographiques des évènements donnant lieu à des écritures comptables, et donc de resituer la comptabilité dans la réalité territoriale de l’entreprise. Etape A Rendre compte des transactions (et classes comptables associées) contingentes aux matières issues de la biodiversité (FMB)
Comme nous l’avons expliqué précédemment (section 4.1.3), les FMB renvoient aux bénéfices retirés de SE de production contribuant aux revenus, c’est-à-dire à des matières biologiques appropriées à partir de la gestion ou de l’exploitation des écosystèmes (services d’approvisionnement selon le MEA, 2005). Grâce à notre typologie de FMB, ceux-ci peuvent 237 D’une période comptable à une autre, avec présentation du cumul des matières consommées, et des émissions associées comptabilisés en fonction leur durée de vie. 238 Présentation orale, conférence EMAN 2009, Prague. 235 être aisément suivis le long des chaînes d’approvisionnement, même si transformés par les processus de production (ex. encadré 2). Aussi, il pourrait s’agir in fine, c’est-à-dire en termes de format de présentation des informations communiquées aux parties prenantes, à la fois : (1) de différencier les catégories / classes comptables selon leurs liens directs (FMB comme objet de la transaction) et indirects (FMB associés à l’objet de la transaction) avec les différentes catégories de FMB (part / pourcentage des actifs, passifs, charges et ventes contingentes à différents catégories de FMB) (unités monétaires), et (2) de communiquer, pour chaque classe comptable, sur les flux de FMB associés (entrées, stocks, sorties) directement et indirectement239 (unités quantitatives non-monétaires) (tableaux 24 et 25 ; encadré 6 pour des exemples de liens entre écritures comptables et FMB). Cela permettrait de quantifier et de visualiser la dépendance financière de la firme aux FMB, fournissant ainsi aux parties prenantes des informations clefs relatives aux modes de valorisation de la biodiversité par l’entreprise. Plus précisément, cela correspondrait aux implications, en matière de comptabilité à partie double, des transactions entre agents par rapport à (a) des droits de propriété portant sur des FMB (liens directs : ex. achat d’une matière première, obtention d’un brevet) ou (b) des évènements / objets impliquant des FMB (liens indirects : ex. acquisition d’une immobilisation corporelle constituée en partie de différentes catégories de FMB). Matières dérivées de Matières ressources Matières Organismes biologiques biologiques biologiques vivants non fossiles transformées transformées transformées (nonrenouvelables) Matières issues de ressources biologiques cultivées / favorisées Biodiversité auxiliaire et / ou associée Matières non issues du vivant (eau, minéraux, métaux) Produits / chiffre d'affaires LD / LI LD / LI LD / LI LD / LI LD / LI LI LD / LI Charges fixes LD / LI LD / LI LD / LI LD / LI LD / LI LI LD / LI Charges variables LD / LI LD / LI LD / LI LD / LI LD / LI LI LD / LI LI LI LI LI LI LI LI Impôts et taxes LD / LI LD / LI LD / LI LD / LI LD / LI LD? / LI? LD / LI Dotation aux amortissements LD? (II) / LI LD? (II) / LI LD? (II) / LI LD? (II) / LI LD? (II) / LI LI LD? (II) / LI LI LI LI LI LI LI LI Produits / charges exceptionnels LD / LI (selon l’activité) LD / LI (selon l’activité) LD / LI (selon l’activité) LD / LI (selon l’activité) LD / LI (selon l’activité) LD / LI (selon l’activité) LD / LI (selon l’activité) Impôts sur les bénéfices LD / LI LD / LI LD / LI LD / LI LD / LI LI LD / LI Résultat net LD / LI LD / LI LD / LI LD / LI LD / LI LI LD / LI Charges de personnel Produits / charges financières
Tableau 25: liens potentiels, directs et indirects, entre FMB et classes comptables du compte de résultat d’une entreprise (abréviations : LD lien direct, LI lien indirect, II immobilisation incorporelle)
Par ailleurs, élargir ces travaux aux flux (entrées, stocks, sorties) non issus de la biodiversité (minerais, métaux, eaux) s’inscrirait dans le cadre d’une comptabilité périodique exhaustive en matière de flux de gaz, liquides et matières associés aux activités de la firme ; ce qui semble réalisable dans le court moyen terme considérant la connaissance accrue des firmes en la matière (directives D3E et REACH, étiquetage des produits, notamment alimentaires) (Houdet et al., 2009a). Toutefois, s’intéresser à l’ensemble de ces flux ne permettrait pas de rendre compte de l’ensemble des interactions avec les BSE influençant la création de valeur actionnariale. Encadré 6 : exemples de liens entre transactions, écritures comptables et FMB AEcritures de vente d'1 litre de produit cosmétique X et FMB associés sur l’ensemble du cycle de vie du produit (distributeur / vendeur) Num
éro de compte
Intitulé 411 Client 44571
70 Catégories de flux (focus sur les FMB) Entrées – sorties pour les étapes amont du cycle de vie Débit Matières biologiques non transformées Crédit 1196€ (1L) Etat TVA collectée Ventes Matières biologiques transformées Matières dérivées de ressources biologiques fossiles transformées (nonrenouvelables) 196€ (1L) 1000€ (1L) Matières issues de ressources biologiques cultivées / favorisées Flux non issus du vivant (ex. eau, minéraux, métaux, certains GES) Mg, ml ou autres unités appropriées rapportés au litre de produit (production et collecte de matières premières, processus de fabrication, transport) Entrés sorties pour le périmètre Mg, ml ou autres unités appropriées rapportés au litre de produit (dont emballage, flux associés juridique du à la gestion du magasin – ex. produits de nettoyage) distributeur / vendeur Entrées – sorties pour les étapes aval du cycle de vie Mg, ml ou autres unités appropriées rapportés au litre de produit (étape d’usage, fin de vie) 238 BEcritures d'achat de 10 ml d’un composant (matière biologique renouvelable non transformée) de produit cosmétique X et flux associés à sa production
Numéro de compte Débit Intitulé 60 Achat 100€ (10 ml) 44566 Etat TVA déductible 19,6€ (10 ml) 401 Fournisseurs Crédit 119,6€ (10ml) Matières non issues du vivant (eau, minéraux, métaux) Catégories de flux Organismes vivants
Entrées – sorties pour les étapes amont du cycle de vie Mg, ml ou autres Mg ou autres unités unités appropriées appropriées par 10ml par 10ml de de composant composant CEcritures d’acquisition d'une immobilisation corporelle (bâtiment pour des bureaux) selon la méthode d’enregistrement « en bloc » afin de simplifier la présentation. Via la méthode dite des « composants », la comptabilité générale aurait comptabilisé séparément les composants principaux en ignorant ceux ayant un impact négligeable sur l'amortissement (voir Richard et Collette, 2008, p. 347). Numéro de compte Intitulé 60 Débit 2 500 000 € Bâtiment 401 Crédit Fournisseurs 2 500 000 € Matières biologiques transformées Matières dérivées de ressources biologiques fossiles transformées (non-renouvelables) Matières issues de ressources biologiques cultivées / favorisées Matières non issues du vivant (matières composites, métaux) Kg, L ou autres unités appropriées Kg, L ou autres unités appropriées Kg, L ou autres unités appropriées Kg, L ou autres unités appropriées Kg, L ou autres unités appropriées Entrées – stocks – sorties liés à la phase d'utilisation (entretien, réparations de composants) Kg, L ou autres unités appropriées Kg, L ou autres unités appropriées Kg, L ou autres unités appropriées Kg, L ou autres unités appropriées Kg, L ou autres unités appropriées Entrées sorties pour la fin de vie de l’immobilisation Kg, L ou autres unités appropriées Kg, L ou autres unités appropriées Kg, L ou autres unités appropriées Kg, L ou autres unités appropriées Kg, L ou autres unités appropriées Catégories de flux associés au cycle de vie du bâtiment (focus sur les FMB) Matières biologiques non transformées Entrées – sorties pour les étapes amont du cycle de vie (conception, construction) 239
Etape B Rendre compte des modes d’appropriation de bénéfices retirés des SE utiles aux activités de la firme
Comme nous l’avons vu dans la sous-section 4.1.2, comptabiliser les SE influençant l’activité de la firme vise à proposer une meilleure compréhension des arbitrages relatifs aux modes de gestion, d’exploitation, et / ou d’appropriation des SE. Pour l’étude de cas concernant une activité de production laitière, les usages spatio-temporels du foncier, les modèles de production, la gestion des intrants, les dépenses, les choix d’investissement, les ventes et subventions sont directement et indirectement liés à la gestion des bénéfices écosystémiques recherchés, qu’ils soient retirés des parcelles exploitées, ou achetées (ex.
| 1,440
|
2010LIL10080_5
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,010
|
Génération par impulsions laser ultracourtes d'ondes acoustiques hautes fréquences par des nanostructures
|
None
|
French
|
Spoken
| 7,148
| 11,960
|
Nous avons ensuite remarqué qu’avec une sonde ayant une longueur d’onde dans l’UV, le signal est beaucoup plus bref. On voit, dans la fonction de sensibilité, qu’il y a un facteur en exponentielle décroissante qui dépend du coefficient d’extinction k. Celui-ci vaut 0.7 à 450 nm et 2.8 à 266 nm dans l’InP. [46] Il faut donc considérer la valeur de la longueur de pénétration ξ = λ/4πk à ces deux longueurs d’onde. A 450 nm on a ξ= 51 nm et à 266 nm, ξ= 8 nm. L’écho détecté à 266 nm est donc beaucoup plus bref, son contenu
Pierre-Adrien MANTE © 2011 Tous droits réservés. Thèse de doctorat Novembre 2010 http://doc.univ-lille1.fr Thèse de Pierre-Adrien Mante, Lille 1, 2010 3.2 Hautes fréquences Page 93
spectral est beaucoup plus large. En choisissant judicieusement la longueur d’onde, et par conséquent le coefficient d’extinction, il est possible d’élargir la bande passante de la détection des oscillations Brillouin et donc d’extraire plus d’informations sur le contenu fréquentiel de l’impulsion acoustique. Nous allons maintenant expliquer l’apparition de la bosse haute fréquence. Nous avons vu que la composante haute fréquence apparaı̂t au milieu des oscillations Brillouin, ce qui signifie que son origine physique provient de la réflexion de l’impulsion acoustique à la surface. Comme il y a réflexion à une surface libre, il y a également changement de signe de l’impulsion acoustique. Afin d’aider à la compréhension, nous allons réaliser quelques modifications sur la fonction de sensibilité. Lorsqu’une déformation acoustique se propage dans un échantillon et qu’elle arrive à la surface libre, elle va être réfléchie et changer de signe. Plutôt que de considérer une seule déformation acoustique qui se réfléchie, nous allons considérer deux déformations, une qui se dirige vers les valeurs de z négatives, que l’on appellera η + (onde incidente), et une autre qui se dirige vers les valeurs de z positives que l’on appellera η − (onde réfléchie). On définit z = 0 comme étant la surface libre. Chaque impulsion se propage pour toutes les valeurs de z mais n’est détectée que pour les valeurs de z positives. En considérant cette modification, on obtient un changement de réflectivité :
∆R(t) = Z +∞ z=0 f (z)η(z, t)dz = Z +∞ f (z)(η + (z, t) + η − (z, t))dz, (3.5) z=0
Sur la figure 3.12, nous avons représenté ce cas, (a), ainsi que les modifications que nous allons réaliser
. Chaque impulsion se propage pour toutes les valeurs de z mais n’est détectée que pour les valeurs de z positives. Nous introduisons donc l’échelon d’Heaviside H(z), qui vaut 1 si z ≥ 0 et qui vaut 0 sinon, pour rendre compte de cette détection. Grâce à cette astuce mathématique, il est maintenant possible d’intégrer l’expression, non plus sur ]0 ;+∞[, mais sur ]-∞ ;+∞[ :
∆R(t
)
= Z +∞ −∞ f (z)H(z)η + (z, t)dz + Z +∞ H(z)f (z)η − (z, t)dz, (3.6) −∞
On utilise ensuite la relation qui relie η + et η − : η − (z, t) = −η + (−z, t), (3.7) Dans cette relation, on passe de z à −z pour rendre compte des différents sens de propagation et les signes sont opposés car il y a eu changement de signe de la déformation à la surface libre. En injectant la relation (3.7) dans l’équation (3.6), on obtient :
Pierre-Adrien MANTE © 2011 Tous droits réservés. Thèse de doctorat Novembre 2010 http://doc.univ-lille1.fr Thèse de Pierre-Adrien Mante, Lille 1, 2010 Page 94
Chapitre 3 Les Boı̂tes Quantiques
Figure 3.12: Différentes représentations de la propagation de l’onde acoustique. (a) Cas réel où une impulsion et sa réflexion se propagent. (b) Une impulsion se propage dans tout l’espace en changeant de signe à l’interface. (c) une seule impulsion se propage dans tout l’espace. ∆R(t) = Z +∞ f (z)H(z)η + (z, t)dz + Z +∞ f (z)H(z)(−η + (−z, t))dz, (3.8) −∞ −∞
En réalisant le changement de variable y=-z uniquement pour la deuxième intégrale, on obtient :
∆R(t) = Z +∞ + f (z)H(z)η (z, t)dz + Z +∞ −∞ f (−y)H(−y)(−η + (y, t))dy, (3.9) −∞
Nous sommes maintenant dans le cas de la figure 3.12(b). On peut maintenant simplifier l’expression en réduisant les bornes des différentes intégrales :
∆R(t) = Z +∞ f (z)η + (z, t)dz + Z 0 f (−y)(−η + (y, t))dy, (3.10) −∞ 0
Nous allons introduire une nouvelle fonction de sensibilité fef f (z), qui vaut f (z) pour les valeurs positives de z et qui est impaire. On obtient finalement
: ∆R(t) = Z +∞ 0 f (z)η + (z, t)dz + Z 0 −∞ −f (−y)(η + (y, t))dy = Z +∞ −∞ fef f (z)η + (z, t)dz, (3.11)
Nous sommes maintenant dans le cas de la figure 3.12(c). C’est cette nouvelle fonction de sensibilité que nous allons étudier dorénavant. Cette transformation a pour but de rendre plus visible ce qui se passe lors de la réflexion, puisque la fonction de sensibilité
Pierre-Adrien M
ANTE
©
2011 Tous
droit
s réservés. Thèse de doctorat Novembre 2010 http://doc.univ-lille1.fr Thèse de Pierre-Adrien Mante, Lille 1, 2010 3.2 Hautes fréquences Page 95
va ainsi ressembler au signal expérimental duquel on aurait déconvolué la déformation. Nous avons calculé la fonction de sensibilité effective, avec les paramètres physiques de l’InP(311), pour deux couples différents de coefficients photo-élastiques. Dans le premier cas, on a pris le couple (2 ;0.9) et dans le second cas (2 ;-0.9). Nous avons représenté les fonctions de sensibilité correspondantes sur la figure 3.13. Figure 3.13: Fonction de sensibilité de l’InP pour deux couples de coefficients photo-élastiques (2 ;0.9) et (2 ;-0.9). Transformées de Fourier obtenues en utilisant les deux fonctions de sensibilité et une déformation qui a la forme d’un pic de Dirac
On peut voir qu’en fonction des coefficients photo-élastiques, la fonction de sensibilité possède une discontinuité en z = 0. La valeur de cette discontinuité est : 2f (0) = 2f0 ( ∂n ∂k cos(φ) − sin(φ)) ∂η ∂η (3.12) Nous avons ensuite calculé le changement de réflectivité causé par une déformation qui aurait la forme d’un pic de Dirac : ∆R(t) = Z +∞ −∞ fef f (z)δ(z − vt)dz, (3.13) Cette opération consiste à voir la bande passante de la fonction de sensibilité. En appliquant un pic de Dirac, la transformée de Fourier ne dépend que de la fonction de sensibilité. Ainsi, nous ne sommes pas limité par le contenu fréquentiel de la déformation. D’un point de vue fréquentiel, sur les transformées de Fourier de la figure 3.13, on voit qu’en l’absence de la discontinuité, on ne détecte pas de fréquence au-delà de 0.5 THz. Par contre, en présence d’une discontinuité, on continue à détecter des composantes à 2 THz. On voit que l’on a une meilleure détection des hautes fréquences lorsque la fonction de Pierre-Adrien MANTE
© 2011 Tous droits réservés. Thèse de doctorat Novembre 2010 http://doc.univ-lille1.fr Thèse de Pierre-Adrien Mante, Lille 1, 2010 Page 96
Chapitre 3
Les
Boı̂tes Quantiques
sensibilité possède une discontinuité. Plus la discontinuité est grande, c’est-à-dire plus 2f (0) est grand, plus la détection des hautes fréquences efficace. La détection photoélastique peut donc être améliorée en choisissant judicieusement les coefficients photoélastiques. 3.2.3 Ondes terahertz
Ici, nous avons joué sur les coefficients photo-élastiques pour montrer l’intérêt de la discontinuité dans la fonction de sensibilité pour la détection des hautes fréquences. Cependant, lors d’expériences, nous n’avons pas accès directement aux coefficients photoélastiques. Ceux-ci dépendent de la longueur d’onde, il faut donc explorer toutes les longueurs d’onde afin de trouver les meilleurs coefficients photo-élastiques. On peut tout de même profiter des caractéristiques des matériaux afin de limiter la plage d’exploration en longueur d’onde. En effet, il a été démontré que les coefficients photo-élastiques subissent des variations importantes autour des transitions électroniques. [11, 12] En profitant de cet effet, il n’est plus nécessaire d’explorer une grande gamme de longueurs d’onde, mais seulement celles qui sont à proximité d’une transition électronique. Dans le cas de l’InP, la transition électronique E1 se situe à 394 nm, [39] nous avons donc étudié les longueurs d’onde entre 380 et 400 nm. Sur la figure 3.14, nous avons représenté les échos détectés à chacune de ces longueurs d’onde de sonde, ainsi que les transformées de Fourier correspondantes.
Figure 3.14: Changement de réflectivité obtenu pour trois longueurs d’onde de sonde 380, 390 et 400 nm sur un échantillon de boı̂tes quantiques comportant un plan de boı̂tes quantiques d’InAs recouvert par un film de 400 nm d’InP(311). Transformée de Fourier des différents signaux.
Pierre-Adrien MANTE © 2011 Tous droits réservés. Thèse de doctorat Novembre 2010 http://doc.univ-lille1.fr Thèse de Pierre-Adrien Mante, Lille 1, 2010 3.2 Hautes fréquences Page 97
Pour les différentes longueurs d’onde, l’importance de la structure haute fréquence est plus ou moins prononcée. On remarque sur les transformées de Fourier que la détection de haute fréquence est très dépendante de la longueur d’onde. Par exemple, sur le signal obtenu à 380 nm, on ne distingue pas de composantes hautes fréquences, du moins on ne peut pas la distinguer du bruit expérimental. A contrario sur le signal obtenu pour une longueur d’onde de sonde de 400 nm, la bosse haute fréquence est très prononcée. Cependant la fréquence principale du signal obtenu à 400 nm se situe aux alentours de 260 GHz, alors que l’on atteint 300 GHz à 390 nm. Nous avons donc choisi de réaliser nos expériences avec une longueur d’onde de sonde de 390 nm. Nous connaissons maintenant les longueurs d’onde qui vont nous permettre de détecter les plus hautes fréquences. Mais il existe encore un dernier paramètre sur lequel on peut jouer afin d’améliorer la détection de haute fréquence et il s’agit de l’atténuation. En effet, l’atténuation des ondes acoustiques longitudinales étant proportionnelle à la fréquence au carré, celle-ci est très forte pour la gamme de fréquence qui nous intéresse, d’autant plus que nous travaillons à température ambiante. Les échantillons sur lesquels ont été réalisés les expériences précédentes possédaient une couche d’InP déposée audessus des boı̂tes quantiques de 320 nm d’épaisseur. Si l’on réduit cette épaisseur, les ondes acoustiques seront moins atténuées et on peut imaginer détecter des fréquences encore plus élevées. Nous avons donc décidé d’utiliser un échantillon avec un cap de 100 nm d’InP. Le signal obtenu avec une longueur d’onde de pompe de 780 nm et une longueur d’onde de sonde de 390 nm est représenté sur la figure 3.15.
Figure 3.15: Echo obtenu sur un échantillon de boı̂tes quantiques comportant un plan de boı̂tes quantiques d’InAs recouvert par un film de 100 nm d’InP(311). Transformée de Fourier de l’écho.
Pierre-Adrien MANTE © 2011 Tous droits réservés. Thèse de doctorat Novembre 2010 http://doc.univ-lille1.fr Thèse de Pierre-Adrien Mante, Lille 1, 2010 Page 98
Chapitre 3 Les Boı̂tes Quantiques
Sur le signal, on n’observe pas de différences flagrantes par rapport aux échantillons avec un cap de 320 nm. Par contre, la transformée de Fourier révèle des contributions hautes fréquences nettement plus élevées. La fréquence principale se situe aux alentours de 700 GHz, et on arrive à détecter des fréquences supérieures au terahertz. Nous avons donc réussi à observer des composantes au-delà du terahertz, ce que prédisait le modèle. De plus, ces observations ont été réalisées à température ambiante, ce qui confirme l’efficacité de la génération par les boı̂tes quantiques que nous remarquions dans la première partie de ce chapitre. Mais le but de ces expériences n’est pas juste la génération d’onde terahertz. Nous avons vu en introduction que l’intérêt des ondes très hautes fréquences est leur sensibilité aux petites variations. Nous allons montrer que les hautes fréquences permettent d’améliorer la résolution spatiale. Durant les expériences, nous avons remarqué des variations du signal et plus particulièrement de la composante hautes fréquences. Il semble que celle-ci change suivant la position des faisceaux sur l’échantillon où l’on réalise l’expérience. Les transformées de Fourier des signaux obtenus pour deux positions différentes sont représentées sur la figure 3.16(a).
(a) (b) Figure 3.16: Transformées de Fourier des changements de réflectivité obtenus en différentes positions d’un échantillon de boı̂tes quantiques comportant un plan de boı̂tes quantiques d’InAs recouvert par un film de 400 nm d’InP(311). Simulation de la transformée de Fourier pour différentes épaisseurs de la couche de boı̂tes quantiques. On voit que la bosse haute fréquence n’est pas la même dans les deux cas. Afin de comprendre cette différence, nous avons effectué des simulations numériques de l’écho obtenu pour différentes tailles de la zone émettrice. Sur la figure 3.16(b), on a représenté les signaux simulés pour une taille de la zone émettrice de 10 ou de 11 nm. On remarque
Pierre-Adrien MANTE © 2011 Tous droits réservés. Thèse de doctorat Novembre 2010 http://doc.univ-lille1.fr Thèse de Pierre-Adrien Mante, Lille 1, 2010 3.2 Hautes fréquences Page 99
un décalage de la bosse haute fréquence de l’ordre de 50 GHz. La haute fréquence permet donc d’avoir une excellente résolution spatiale, puisque une simple variation de 1 nm décale le contenu haute fréquence significativement.
3.2.4 Un modèle très général
Ce modèle n’est pas restreint à l’étude des boı̂tes quantiques, nous allons voir maintenant qu’il est aussi applicable à d’autres matériaux, en fait tous les matériaux où la détection est faite par le mécanisme photo-élastique, tel que le tungstène. Le premier article du laboratoire de Lille [12] concernait les effets de longueur d’onde sur la détection d’écho d’une couche de tungstène sur silicium. La similarité entre les expériences sur tungstène et celles sur les boı̂tes quantiques résident dans les variations importantes de la forme de l’écho en fonction de la longueur d’onde. Dans cet article, l’étude était axée sur la forme de l’écho et sur l’explication physique de ces changements de forme. Nous allons reprendre les expériences réalisées à cette époque et les étudier d’un point de vue fréquentiel. Nous avons réalisé de nouveau les expériences de cet article, afin d’améliorer le rapport signal sur bruit et ainsi pouvoir faire des transformées de Fourier. Pour cela, nous avons utilisé une couche de 100 nm de tungstène déposée sur substrat silicium, contrairement à l’article où la couche faisait 170 nm d’épaisseur. Nous avons réalisé des expériences sur cet échantillon avec des longueurs d’onde de pompe et de sonde de 750, 820 et 920 nm. Les échos obtenus sont reproduit sur la figure
3.17. Figure 3.17: Echos obtenus dans une couche de 100 nm de tungstène sur substrat Si pour trois longueurs d’onde de sonde différentes (750, 820 et 920 nm)
Pierre-Adrien
MANTE © 2011 Tous droits réservés. Thèse de doctorat Novembre 2010 http://doc.univ-lille1.fr Thèse de Pierre-Adrien Mante, Lille 1, 2010 Page 100
Chapitre 3 Les Boı̂tes Quantiques
Entre 750 et 820 nm, on voit apparaı̂tre un pic au centre de l’écho. Il faut remarquer que les premières transitions du tungstène ont lieu à 0.43, 0.87, 1.57 et 2.25 eV. [70] La transition à 1.57 eV (790 nm), se situe exactement dans la région où l’on observe l’apparition du pic. Grâce aux simulations, on est capable de calculer le rapport entre les deux coefficients photo-élastiques. On trouve ainsi un rapport de 1 à 750 nm, 3 à 820 nm et 20 à 920 nm. Nous avons représenté sur la figure 3.18 les fonctions de sensibilité correspondantes.
Figure 3.18: Fonction de sensibilité du tungstène à différentes longueurs d’ondes, le rapport des coefficients photo-élastiques est issu de simulation
On remarque que la discontinuité est à peu près équivalente entre la fonction de sensibilité à 750 et 820 nm. Par contre cette discontinuité est beaucoup plus importante à 920 nm, on devrait donc être capable de détecter des composantes plus hautes fréquences à 920 nm. Nous avons donc réalisé la transformée de Fourier des différents échos du tungstène. Celles-ci sont représentées sur la figure 3.19. Les plus hautes fréquences sont détectées à 920 nm, là où, comme précédemment, la fonction de sensibilité a la plus grande discontinuité. Pour 750 et 820 n , les transformées de Fourier sont assez similaires, ce qui s’explique par la valeur de la discontinuité dans la fonction de sensibilité qui est sensiblement la même dans les deux cas. On voit donc que le modèle qui a permis de détecter les hautes fréquences dans le cas des boı̂tes quantiques est également applicable dans le cas du tungstène. L’un des intérêts de ce modèle dans le cas du tungstène est qu’il est possible d’observer l’atténuation des ondes acoustiques à des fréquences beaucoup plus élevées, ici à 200 GHz. La mesure d’atténuation est réalisée en effectuant les transformées de Fourier des échos successifs.
La Pierre-Adrien MANTE © 2011 Tous droits réservés. Thèse de doctorat Novembre 2010 http://doc.univ-lille1.fr Thèse de Pierre-Adrien Mante, Lille 1, 2010 3.3 Mécanisme de génération Page 101
Figure 3.19: Transformée de Fourier des échos du tungstène à différentes longueurs d’onde. diminution de l’amplitude de la transformée de Fourier à une fréquence donnée entre deux échos successifs nous renseigne sur l’importance de l’atténuation à cette fréquence. [43]
Nous avons donc montré l’intérêt d’utiliser de la matière confinée pour réaliser la transduction d’ondes acoustiques très haute fréquences. Dans le cadre de nos boı̂tes quantiques, nous avons montré que l’onde acoustique générée contient des composantes fréquentielles supérieures au terahertz. Grâce à un modèle qui permet de choisir judicieusement les paramètres expérimentaux, nous avons pu détecter ces fréquences à température ambiante, prouvant l’amplitude exceptionnelle de l’onde acoustique issue des boı̂tes quantiques. Nous avons également vu que notre modèle n’est pas restreint à cet échantillon, mais que l’on peut l’appliquer à tout échantillon où la détection est photo-élastique comme le montre l’application au tungstène. 3.3 Mécanisme de génération
Nous allons maintenant nous intéresser au processus de génération d’onde acoustique suite à l’absorption d’une impulsion lumineuse. Nous savons dorénavant que la génération a lieu dans le plan de boı̂tes quantiques, mais nous ne savons pas par quel processus elle a lieu. Dans cette partie, nous allons voir de quel type de génération il s’agit. Ensuite nous proposerons une explication pour l’efficacité de la génération dans les boı̂tes d’InAs, contrairement aux boı̂tes de SiGe. Et finalement, nous verrons si l’ensemble des résultats nous donne des informations sur le lieu exact de la génération : boı̂tes quantiques et/ou couche de mouillage?
Pierre-Adrien MANTE © 2011 Tous droits réservés. Thèse de doctorat Novembre 2010 http://doc.univ-lille1.fr Thèse de Pierre-Adrien Mante, Lille 1, 2010 Page 102
3.3.1 Chapitre 3 Les Boı̂tes Quantiques Génération par potentiel de déformation
La génération d’onde acoustique dans les semi-conducteurs est différente de celle dans les métaux. [18] Il ne s’agit plus uniquement de génération par la chaleur, dite thermoélastique, mais également par les porteurs de charge. Ce type de génération est appelé génération par potentiel de déformation. Nous allons maintenant décrire brièvement ce type de génération. Sous l’effet d’une impulsion lumineuse avec une énergie supérieure à la bande interdite du semiconducteur, des paires électron-trou sont générées. Le passage d’un électron excité de la bande de valence à la bande de conduction va créer un trou dans la bande de valence, c’est la paire formée par l’électron dans la bande de conduction et le trou dans la bande de valence que l’on appelle exciton. Selon que l’électron qui passe dans la bande de conduction, passe dans un état liant ou anti-liant, une compression ou une dilatation du réseau a lieu. Le passage de la bande de valence à la bande de conduction va donc modifier la position d’équilibre des atomes du réseau, créant ainsi une contrainte. Ce couplage entre les porteurs de charges excités et la contrainte est gouverné par les potentiels de déformations, qui lient la contrainte appliquée au changement d’occupation des bandes d’énergies. Si l’on compare la génération acoustique dans les métaux à celle dans les semiconducteurs, lorsque l’on calcule la contrainte totale, il faut ajouter le terme correspondant à la génération par potentiel de déformation : [61] σ33 = ρV 2 η33 − 3Bβ∆T (z) − BNe ∂Eg, ∂P (3.14) El Th est la contrainte électronique (par est la contrainte thermo-élastique, σ33 où σ33 potentiel de déformation), Ne est la densité des électrons photo-excités et ∂Eg /∂P est un coefficient qui représente la variation de la bande interdite en fonction de la pression. Dans cette expression, on considère que les porteurs qui contribuent à la contrainte par potentiel de déformation se situent en bas de la bande de conduction. En effet, les électrons relaxent très vite vers le bas de la bande de conduction (≤1 ps). C’est pourquoi, on considère que les porteurs qui jouent un rôle dans la contrainte électronique se trouvent en bas de la bande de conduction. Pour connaı̂tre l’importance relative de chacune des générations, nous allons calculer le rapport entre la déformation électronique, à l’origine de la génération par potentiel de déformation et la contrainte thermique, qui représente la génération thermo-élastique El Th σ33 /σ33. Afin de pouvoir simplifier, nous allons exprimer la déformation thermique en
Pierre
-
Adrien MANTE © 2011 Tous droits réservés
. Thèse de doctorat Novembre 2010 http://doc.univ-lille1.fr Thèse de Pierre-Adrien Mante, Lille 1, 2010 3.3 Mécanisme de génération Page 103
fonction de l’énergie d’excitation : E − Eg, (3.15) C où C est la capacité calorifique par unité de volume. On peut expliquer brièvement le sens physique de cette formulation. Un photon d’énergie E=h̄ω permet aux électrons de passer dans la bande de conduction. Ce passage nécessite une énergie Eg. L’énergie excédentaire E −Eg va contribuer à l’échauffement. Cette échauffement dépend également de la densité de porteurs photo-excités. On obtient alors un rapport. Th σ33
= −
3
Bβ∆T = −3BβNe El σ33 −BNe Cv ∂Eg 1 Cv ∂Eg 1 = = Th σ33 −3BβNe ∂P E − Eg 3β
∂P E − Eg
(3.16) Nous réalisons ensuite l’application numérique. Pour des boı̂tes quantiques d’InAs dans GaAs, on trouve un coefficient ∂Eg /∂P de l’ordre de 8.10−11 eV.Pa−1, [37] d’après les expériences de photoluminescence, on trouve la bande interdite des boı̂tes quantiques à 0.8 eV. La chaleur spécifique par unité de volume C d’InAs vaut 1.42.106 J.m−3.K−1 et le coefficient linéaire de dilatation thermique β vaut 4.52.10−6 K−1. On obtient donc un rapport pour une longueur d’onde de pompe de 800 nm : El σ33'11 Th σ33 (3.17) La contribution à la contrainte totale de la contrainte électronique est 11 fois plus forte que celle de la contrainte thermo-élastique. On peut donc considérer que la génération dans les boı̂tes quantiques a lieu par potentiel de déformation. 3.3.2 Capture des porteurs
Nous venons de voir que la génération de l’onde acoustique dans les boı̂tes quantiques se fait majoritairement à travers les potentiels de déformation. Dans ce schéma, la contrainte est le produit de la densité de porteurs photo-générés par le potentiel de déformation. L’amplitude de l’onde acoustique étant reliée à la contrainte, plus cette amplitude est forte, plus le nombre de porteurs photo-générés est important. L’amplitude de l’onde acoustique dépend donc du nombre de porteurs photo-excités. Nous allons faire une application numérique pour comparer la contrainte générée par effet électronique dans les boı̂tes d’InAs et le film de 320 nm d’InP par une même impulsion lumineuse. Pour cela nous devons tout d’abord calculer la densité de porteurs photo-générés. La variation de cette densité en fonction du temps est donnée par l’équation de diffusion : [71]
Pierre-Adrien MANTE © 2011 Tous droits réservés. Thèse de doctorat Novembre 2010 http://doc.univ-lille1.fr Thèse de Pierre-Adrien Mante, Lille 1, 2010 Page 104
Chapitre 3 Les Boı̂tes Quantiques
∂N 1−R ∂ 2N = If (t)e−z/ζ + D 2 ∂t ζCv ∂z (3.18)
Où N est la densité de porteurs, R est la réflectivité, Cv est la capacité calorifique par unité de volume, If (t) est la variation d’intensité de l’impulsion lumineuse et D est le coefficient de diffusion ambipolaire. Dans cette équation, le premier terme du membre de droite est un terme de source qui correspond à la génération de paires électron-trou par le faisceau lumineux et le second terme est un terme de diffusion. Nous allons considérer dans la suite du calcul que la diffusion est négligeable. 1 − RInP −hInP /ζInP Ie ζInP CInP (3.19) (1 − RInAs )(1 − RInP ) −hInP /ζInP −hInAs /ζInAs Ie e ζInAs CInAs (3.20) NInP = et NInAs =
Pour calculer le rapport des contraintes électroniques dans InAs et dans InP suite à une impulsion lumineuse, on assimile le plan de boı̂tes quantiques à une couche de 10 nm d’InAs, on obtient : g
(
B ∂
E (1
− R
)e−h/ζ )InAs.(ζC)InP σInAs ∂P = g σInP (B ∂E ).(ζC)InAs ∂P InP
(3.21) En réalisant l’application numérique, on obtient un rapport entre ces contraintes : σInAs = 0.5 σInP (3.22) Cela signifie que l’onde acoustique générée par les boı̂tes quantiques est 2 fois plus faible que celle générée par InP. Ce rapport est spécifique à ces matériaux et à cet échantillon. En effet, si l’on augmente la taille de la couche d’InAs, ce rapport va diminuer, car le terme eh/ζ est propre à cet échantillon. Ce rapport montre tout de même que l’on devrait observer des contributions plus forte issues de l’InP. Or, nous avons vu, grâce aux simulations, que la génération des boı̂tes quantiques est très forte. La contrainte électronique (−BN (∂Eg )/(∂P )) des plans de boı̂tes devrait être beaucoup plus forte. Comme le potentiel de déformation est fixe, pour avoir une onde acoustique d’une grande amplitude, il faut que la densité de porteur soit très forte. Nous faisons donc l’hypothèse que les porteurs qui sont générés dans l’InP, autour des boı̂tes quantiques, sont capturés par ces dernières. En effet, d’un point de vue énergétique, la bande interdite des boı̂tes quantiques d’InAs est plus faible que celle de l’InP, elle joue donc le rôle de puits de potentiel et il y a capture des porteurs. [21] On a un alignement de bande que l’on dit de Pierre-Adrien MANTE © 2011 Tous droits réservés. Thèse de doctorat Novembre 2010 http://doc.univ-lille1.fr Thèse de Pierre-Adrien Mante, Lille 1, 2010 3.3 Mécanisme de génération
Page 105
type 1 et qui est représenté sur la figure 3.20.
Figure 3.20: Alignement des bandes d’énergie pour des boı̂tes quantiques de type I et dynamique des porteurs
Nous allons voir ce qu’il se passe au niveau des porteurs lors de l’excitation par une impulsion lumineuse. Dans le cas des boı̂tes d’InAs/InP et InAs/GaAs, l’énergie de l’impulsion lumineuse est supérieure à toutes les bandes interdites de la structure. Ainsi, on va avoir formation de paires électrons-trou dans les boı̂tes quantiques, la couche de mouillage et l’InP ou le GaAs. Cependant, les boı̂tes quantiques jouent le rôle de puits de potentiel, et les porteurs vont être piégés dans cette structure. [21] Le nombre de porteurs dans les boı̂tes quantiques est donc bien supérieur au nombre de porteurs générés par absorption optique directement dans les boı̂tes quantiques. On peut donc expliquer la génération efficace par le fait que les boı̂ quantiques vont capturer les porteurs, permettant ainsi de réaliser une génération très efficace car la génération par potentiel de déformation est proportionnelle au nombre de porteurs. Pour vérifier l’hypothèse de la capture des porteurs, nous avons réalisé des expériences où l’on change la longueur d’onde de la pompe sur l’échantillon comportant deux plans de boı̂tes quantiques espacés de 480 nm avec un cap de 320 nm. Dans un premier temps, on effectue une expérience avec une longueur d’onde de pompe de 800 nm et une longueur d’onde de sonde de 400 nm. La seconde expérience consiste à utiliser une longueur d’onde de pompe qui se situe énergétiquement en deçà de la bande interdite de l’InP et de la couche de mouillage, ici 1170 nm, la longueur d’onde de sonde étant toujours de 400 nm. Ces deux expériences sont représentées sur la figure 3.21(a). Afin d’obtenir un faisceau pompe à 1170 nm, nous avons eu recours à un oscillateur paramétrique optique et ce faisceau est ensuite modulé par un chopper mécanique
Pierre-Adrien MANTE © 2011 Tous droits réservés. Thèse de doctorat Novembre 2010 http://doc.univ-lille1.fr Thèse de Pierre-Adrien Mante, Lille 1, 2010 Page 106
Chapitre 3 Les Boı̂tes Quantiques
(a
)
(b) Figure 3.21: Changements de réflectivité obtenus sur un échantillon de boı̂tes quantiques comportant deux plans de boı̂tes quantiques d’InAs séparés par 460 nm d’InP et recouvert par un film de 320 nm d’InP à des longueurs d’onde de pompe de 800 et 1170 nm et à une longueur d’onde de sonde de 400 nm. à 1 kHz. Pour vérifier que les conditions expérimentales sont bonnes (le parallélisme entre les faisceau pompe et sonde, ainsi que la distance entre la lentille de focalisation et l’échantillon), nous avons placé
chopper mécanique sur la sonde bleue et nous avons réalisé une expérience avec une pompe bleue et une sonde infra-rouge à 1170 nm. Le signal obtenu est reproduit sur la figure 3.21(b). Dans les deux expériences de la figure 3.21(a), il y a génération de porteurs dans les boı̂tes quantiques, mais à 800 nm, on génère également dans la couche de mouillage et dans l’InP. Le fait que l’on n’obtienne aucun signal à 1170 nm montre que le nombre de porteurs photo-excités dans les boı̂tes n’est pas suffisant pour obtenir une génération efficace. L’hypothèse de la capture des porteurs est donc confortée. Une autre façon de vérifier que la capture des porteurs a bien lieu est de réaliser des expériences avec une pompe et une sonde bleues. Nous avons vu qu’à 400 nm la longueur de pénétration du faisceau est de 18 nm. On ne génère donc, en utilisant une pompe bleue, des porteurs que dans la couche d’InP. La diffusion des porteurs leur permet d’atteindre les boı̂tes quantiques si l’épaisseur de la couche d’InP n’est pas trop importante. On a donc réalisé des expériences avec une pompe et une sonde à 400 nm sur des échantillons de boı̂tes quantiques avec des caps variables. Les signaux sont reproduits sur la figure 3.22. Le signal obtenu sur l’échantillon possédant un cap de 120 nm présente une structure centrée à t=27 ps, ce qui correspond au temps de vol d’une onde acoustique générée par les boı̂tes quantiques et détectée en surface : 120/4.58'27 ps. Il y a donc eu capture des Pierre-Adrien
MANTE © 2011 Tous droits réservés. Thèse de doctorat Novembre 2010 http://doc.univ-lille1.fr Thèse de Pierre-Adrien Mante, Lille 1, 2010 3.3 Mécanisme de génération Page 107
Figure 3.22: Changements de réflectivité obtenus sur des échantillons de boı̂tes d’In
s dans InP avec des caps de 120 nm et 320 nm à une longueur d’onde de pompe et de sonde de 400 nm. porteurs par les boı̂tes quantiques. Par contre, dans le cas de l’échantillon avec un cap de 320 nm, on ne voit pas apparaı̂tre de structure à t=320/4.58'70 ps. La diffusion des porteurs n’est pas assez forte pour que les électrons atteignent les boı̂tes quantiques. Par contre, on voit un écho à t=140 ps, qui correspond à un aller-retour entre la surface et le plan de boı̂tes quantiques. De nouveau, l’hypothèse de la capture des porteurs est vérifiée. Le mécanisme de capture des porteurs permet d’expliquer pourquoi la génération est si forte dans les boı̂tes d’InAs. Cependant pour les boı̂tes quantiques de SiGe dans Si, on ne remarque pas cette efficacité. Cela veut-il dire qu’il n’y a pas de capture dans ces systèmes? Pour comprendre ce qu’il se passe dans les boı̂tes quantiques de SiGe dans Si, on va de nouveau étudier l’alignement des bandes d’énergie. Ces systèmes ne possèdent pas le même type d’alignement, il s’agit d’un alignement de type 2, [68, 33] que nous avons représenté sur la figure 3.23. Comme précédemment, on va s’intéresser à la dynamique des porteurs suite à une impulsion lumineuse. Dans cette configuration, l’énergie d’une impulsion lumineuse à 800 nm (1.55 eV) est supérieure aux bandes interdites du silicium, des boı̂tes quantiques et de la couche de mouillage, il va donc y avoir génération de porteurs dans toutes les zones. Cependant, comme cela nécessite moins d’énergie pour les électrons de se trouver dans le silicium, que dans les hétérostructures, on va avoir une migration des électrons. On va donc avoir une génération d’ondes acoustiques moins efficace, puisque les électrons vont migrer vers le silicium. Ce phénomène peut expliquer que la génération soit moins efficace dans les boı̂tes de SiGe que dans celle d’InAs.
Pierre-Adrien MANTE © 2011 Tous droits réservés. Thèse de doctorat Novembre 2010 http://doc.univ-lille1.fr Thèse de Pierre-Adrien Mante, Lille 1, 2010 Page 108
Chapitre 3 Les Boı̂tes Quantiques
Figure 3.23: Alignement des bandes d’énergie pour des boı̂tes quantiques de type II et dynamique des porteurs
Pour confirmer le mécanisme de capture des porteurs, on peut également envisager des expériences à basse température. Le temps de capture des porteurs est très dépendant de la température. En suivant l’évolution de l’amplitude de l’écho provenant des boı̂tes quantiques en fonction de la température, il devient possible d’évaluer la densité de porteurs au sein des boı̂tes et donc l’efficacité du processus de capture. Nous sommes donc maintenant en mesure de comprendre l’efficacité de la génération dans les boı̂tes d’InAs, et pourquoi la génération est plus faible dans les boı̂tes de SiGe. Il nous reste encore une interrogation sur la génération. Nous savons que la génération a lieu dans le plan de boı̂tes quantiques, mais provient-elle des boı̂tes quantiques, de la couche de mouillage ou des deux?
3.3.3 Boı̂tes quantiques ou couche de mouillage?
Nous avons vu qu’il reste une incertitude sur la zone exacte de l’émission de l’onde acoustique. S’agit-il de la couche de mouillage et/ou des boı̂tes quantiques? Dans cette partie, nous allons voir qu’expérimentalement il y a déjà des indices sur la zone d’émission. Nous verrons ensuite que la structure électronique des boı̂tes quantiques permet d’avoir d’autres informations. Lors des expériences sur les boı̂tes quantiques de la figure 3.16, nous avons observé que le contenu fréquentiel de l’écho varie suivant la taille de la zone émettrice. Expérimentalement, on observe un déca lage de la bosse haute fréquence d’une centaine de GHz. En réalisant des simulations numériques où l’on a fait varier la taille de la zone
Pierre
-Adrien M
ANTE © 2011
Tous droits réservés. Thèse de doctorat Novembre 2010 http://doc.univ-lille1.fr Thèse de Pierre-Adrien Mante, Lille 1, 2010 3.3 Mécanisme de génération Page 109
d’émission, on est capable de réaliser un décalage d’une centaine de GHz en faisant varier la zone d’émission de 2 nm. Cela signifie que dans nos échantillons, la taille de la zone d’émission peut varier de 2 nm. Or les variations de la couche de mouillage sont de l’ordre de la monocouche atomique, contrairement aux boı̂tes qui peuvent avoir des variations d’épaisseur plus importantes, de l’ordre du nanomètre. On peut donc relier cette variation d’épaisseur de la zone d’émission à une variation de la taille des boı̂tes. On ne peut donc pas encore conclure sur la zone exacte d’émission, mais on peut déjà dire que les boı̂tes quantiques jouent un rôle dans la génération. Nous avons vu que l’efficacité de la génération dépend du nombre de porteurs dans les différentes zones de l’échantillon. Une manière de savoir si la génération a lieu dans les boı̂tes quantiques consiste à observer l’amplitude de l’onde acoustique en fonction de la puissance de l’impulsion lumineuse. En effet, de par leur confinement, on a une discrétisation des états d’énergie au sein des boı̂tes quantiques. Le nombre de porteurs qui peuvent être dans un état excité est donc faible. On peut donc espérer, si la génération a lieu dans les boı̂tes quantiques, observer un phénomène de saturation des niveaux d’énergies des boı̂tes quantiques et donc de l’amplitude des ondes acoustiques. En effet, nous avons vu que dans la génération par potentiel de déformation, la contrainte, donc l’amplitude de l’écho détecté, est proportionnelle au nombre de porteurs photo-excités. Sur la figure 3.24(a), nous avons reproduit les variations de l’amplitude de l’écho acoustique en fonction de la puissance de l’impulsion lumineuse incidente dans un échantillon comportant un plan de boı̂tes quantiques d’InAs dans InP(311). Afin de pouvoir affirmer qu’il s’agit bien d’un effet propre aux boı̂tes quantiques, nous avons réalisé des expériences similaires dans d’autres échantillons : un substrat d’InP ainsi qu’un multi-couches Al/SiN/Si. Dans cette expérience, nous mesurons l’amplitude d’une contribution acoustique en fonction de la puissance du faisceau lumineux. Pour l’échantillon de boı̂tes quantiques, nous avons choisi l’amplitude de l’écho (Fig 3.24(b)), pour Al/SiN/Si, l’amplitude des oscillations Brillouin dans Si (Fig 3.24(c)) et pour le substrat d’InP, nous mesurons l’amplitude des oscillations Brillouin de l’onde générée à la surface (Fig 3.24(d)). On remarque, sur la figure 3.24(a), un phénomène de saturation propre à l’échantillon de boı̂tes quantiques. Tout d’abord, on se trouve dans un régime linéaire, où la probabilité de générer une paire électron-trou est proportionnelle à la puissance de l’onde lumineuse incidente. Puis, à partir de 50 mW, on voit que la croissance de l’amplitude de l’écho n’est plus linéaire. Enfin, à partir de 200 mW, on a la saturation où on occupe tous les états excités des boı̂tes quantiques par la génération directe ainsi que la capture de porteurs. Au moment de la saturation, c’est-à-dire vers 200 mW, on a une densité de puissance de l’ordre de quelques kW.cm−2. Un phénomène de saturation des états électroniques
Pierre-Adrien MANTE © 2011 Tous droits réservés. Thèse de doctorat Novembre 2010 http://doc.univ-lille1.fr Thèse de Pierre-Adrien Mante, Lille 1, 2010 Page 110
Chapitre 3 Les Boı̂tes Quantiques InAs/InP(311) Al/SiN/Si InP
Figure 3.24: (a) Variation de l’amplitude de la contribution acoustique de différents échantillons en fonction de la puissance de l’ impulsion lumineuse
à
800
nm. (b) Echo issues des boı̂tes sur un échantillon de boı̂tes quantiques comportant un plan de boı̂tes quantiques d’InAs recouvert par un film de 400 nm d’InP(311). (c) Oscillations Brillouin détectées dans Si dans un échantillon ayant un transducteur de 10 nm d’Al sur un film de 400 nm de SiN sur substrat Si. (d) Oscillations Brillouin détectées à la surface d’un échantillon d’InP massif. des boı̂tes quantiques d’InAs dans InP(311) a été observé pour une densité de puissance de 1.2 kW.cm−2 lors d’expérience de photoluminescence résolue en temps avec une puissance du faisceau laser variable sur des échantillons similaires. [66] Cependant, on peut également envisager que ce phénomène soit causé par un éventuel effet piézo-électrique de la couche d’InP(311), [35] mais un phénomène de saturation similaire est observé dans des boı̂tes quantiques d’InAs dans GaAs(100), non-piézo-électrique. On observe donc un phénomène de saturation de l’amplitude des ondes acoustiques, nous avons déterminé que la génération se fait par potentiel de déformation, donc que l’amplitude des ondes acoustiques est proportionnelle à la densité de porteurs photogénérés. Cela signifie donc qu’il y a saturation des niveaux d’énergie des boı̂tes quantiques, qui est détecté par une saturation de l’amplitude de l’écho détecté. Ce résultat laisse penser que la génération a lieu au sein des boı̂tes quantiques et non pas dans la couche de mouillage. Nous avons donc des informations qui semblent montrer que la génération se fait dans les boı̂tes quantiques elles-mêmes. Mais cela n’est pas suffisant pour donner une conclusion définitive. Une piste qui pourrait être envisagée, serait l’utilisation de boı̂tes quantiques fabriquées par la méthode Vollmer-Weber. [15, 36] La fabrication par cette méthode a l’avantage d’éviter la formation d’une couche de mouillage. S’il y a génération on pourra conclure qu’elle vient bien des boı̂tes quantiques.
Pierre-Adrien MANTE © 2011 Tous droits réservés. Thèse de doctorat Novembre 2010 http://doc.univ-lille fr Thèse de Pierre-Adrien Mante, Lille 1, 2010 3.3 Mécanisme de génération Page 111
Synthèse
Nous avons donc montré l’intérêt d’utiliser de la matière confinée pour réaliser la transduction d’ondes acoustiques très haute fréquences grâce à une impulsion lumineuse. Dans un premier temps, en étudiant différents systèmes, nous avons démontré la possibilité de générer des ondes acoustiques grâce à des boı̂tes quantiques. Cette génération est d’ailleurs extrêmement efficace pour les boı̂tes d’InAs, à peu près vingt fois plus que dans un film mince d’aluminium. Dans le cadre de nos boı̂tes quantiques, nous avons montré que l’impulsion acoustique générée contient des composantes fréquentielles supérieures au terahertz. Grâce à un modèle qui permet de choisir judicieusement les paramètres expérimentaux, nous avons pu détecter ces fréquences à température ambiante, prouvant l’amplitude exceptionnelle de l’onde acoustique issue des boı̂tes quantiques. Nous avons également vu que notre modèle n’est pas restreint à cet échantillon, mais que l’on peut l’appliquer à tous les échantillons où la détection photo-élastique a lieu comme le montre l’application au tungstène. Nous avons finalement montré que cette génération avait lieu à travers le mécanisme de potentiel de déformation. En suivant la dynamique des porteurs, il a également été possible de montrer la capture des porteurs dans les boı̂tes et donc l’efficacité de la génération. Cette capture est aussi responsable d’un phénomène de saturation des niveaux d’énergies des boı̂tes quantiques qui a permis d’attribuer la génération aux boı̂tes.
Pierre-Adrien MANTE © 2011 Tous droits réservés. Thèse de doctorat Novembre 2010 http://doc.univ-lille1.fr Thèse de Pierre-Adrien Mante, Lille 1, 2010 Page 112 Pierre-Adrien MANTE © 2011 Tous droits réservés. Chapitre 3 Les Boı̂tes Quantiques Thèse de doctorat Novembre 2010 http://doc.univ-lille1.fr Thèse de Pierre
Adrien Mante,
Lille 1,
2010
Conclusion Ce manuscrit traite de l’acoustique picoseconde, des principes qui la régissent, de ses limitations et des moyens pour l’améliorer. Dans un premier temps, nous nous sommes concentrés sur la technique. Nous avons décrit le modèle de la génération d’ondes acoustiques par une impulsion laser et mis en évidence les limitations au niveau des ondes acoustiques générées. Tout particulièrement, nous avons mis en évidence que seules des ondes longitudinales peuvent être excitées et que le contenu fréquentiel de ces ondes est limité, il est difficile d’atteindre le terahertz. Nous nous sommes ensuite intéressés aux différentes solutions qui permettent d’outrepasser ces limites. La réduction des faisceaux, les propriétés cristallographiques et l’utilisation de nanostructures permettent la génération d’ondes non longitudinales, tout comme les propriétés non-linéaires et les super-réseaux ouvrent la voie vers l’acoustique très hautes fréquences. Notre choix pour permettre la génération d’ondes non longitudinales s’est porté sur l’utilisation de nanostructures. Nous avons montré expérimentalement que la nanostructuration périodique d’une surface permet la génération d’ondes de surface. Un modèle théorique a été mis au point et permet d’expliquer les modes de vibrations observés expérimentalement. Nous avons ensuite mis au point un modèle permettant de décrire le mécanisme de détection de ces ondes de surface. Les ondes de surface étant un mélange d’ondes transverses et longitudinales, nous avons profité de cette dualité pour développer une technique de caractérisation complète de couches minces. Dans la troisième et dernière partie, la question des très hautes fréquences nous a interéssée. Les boı̂tes quantiques semiconductrices ont retenus notre attention pour résoudre le problème de la génération d’ondes terahertz. Dans un premier temps, nous avons montré la possibilité de générer de manière très efficace des ondes acoustiques dans des boı̂tes quantiques. Nous nous sommes alors penchés sur le contenu fréquentiel de l’impulsion acoustique et avons été capables d’atteindre des fréquences au-delà du terahertz à température ambiante. L’utilisation de la basse température pourrait permettre d’obtenir des fréquences encore plus élevées. Nous avons ensuite étudiés l’influence de l’organisation de boı̂tes quantiques entre elles sur la réponse acoustique de ces dernières.
Pierre-Adrien MANTE © 2011 Tous droits réservés.
| 32,258
|
9c5e3af172fd33a3df96c40a2eade6b6_16
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,013
|
Investissement direct étranger
|
None
|
French
|
Spoken
| 7,599
| 15,130
|
..
Logement et
équipements
collectifs
0.9
..
0.7
0.0
1.5
..
1.8
0.6
0.1
0.1
3.1
1.1
0.9
0.7
0.2
0.6
5.5
0.8
1.3
..
1.8
..
0.2
1.1
0.6
0.4
0.0
1.4
2.0
5.0
0.8
0.4
0.0
..
..
1.2
..
..
..
..
..
..
Santé
1.2
..
4.5
3.7
10.2
..
11.3
0.4
1.6
7.3
24.4
12.3
0.8
0.9
10.3
14.5
20.1
13.5
14.2
..
1.7
..
15.2
18.5
9.0
3.8
17.1
9.6
5.5
17.8
11.8
4.5
0.4
..
..
9.2
..
..
..
..
..
..
Loisirs, culture et
religion
0.4
..
1.2
0.3
2.1
..
1.4
1.9
1.5
4.1
0.2
1.7
1.7
1.3
3.3
0.6
3.1
2.5
1.4
..
3.9
..
1.4
1.6
1.2
1.3
1.2
3.0
1.3
1.3
3.7
1.2
0.7
..
..
1.7
..
..
..
..
..
..
Éducation
Protection sociale
1.2
..
13.4
4.5
2.6
..
6.6
10.3
0.9
9.8
3.5
13.2
17.5
9.7
10.8
10.0
8.7
16.5
12.6
..
14.1
..
5.6
20.8
15.7
16.2
14.6
13.7
11.7
12.1
17.8
6.5
8.3
..
..
10.6
..
..
..
..
..
..
46.2
..
42.2
10.1
31.6
..
3.1
35.6
7.4
41.3
32.2
29.3
19.0
9.4
23.6
21.2
22.2
20.5
20.5
..
42.6
..
42.6
28.4
22.4
31.8
15.3
21.8
43.5
34.4
26.4
41.1
31.2
..
..
27.5
..
..
..
..
..
..
1 2 http://dx.doi.org/10.1787/888932715742
Répartition des dépenses entre les différents niveaux des administrations publiques
Pourcentage, 2001-2010
Sécurité sociale, 2010
Locales, 2010
États fédérés, 2010
Centrale, 2010
Sécurité sociale, 2001
Locales, 2001
États fédérés, 2001
Centrale, 2001
100
90
80
70
60
50
40
30
20
10
0
1 2 http://dx.doi.org/10.1787/888932715761
PANORAMA DES STATISTIQUES DE L’OCDE 2013 © OCDE 2013
203
GOUVERNEMENT • ADMINISTRATIONS PUBLIQUES
DÉPENSES ET RECETTES DES ADMINISTRATIONS PUBLIQUES PAR HABITANT
Les dépenses des administrations publiques servent à assurer
la fourniture de biens et de services et à redistribuer les revenus. Pour financer ces activités, les États ont recours aux
recettes (notamment fiscales) qu’elles perçoivent et/ou à
l’emprunt. Le montant, par habitant, des recettes collectées ou
des dépenses effectuées offre donc deux moyens de comparer
la taille des administrations publiques de différents pays. Les
écarts observés entre les pays peuvent toutefois également traduire des divergences dans la conception des services publics
et de la gestion des deniers publics (conduisant notamment à
opter pour des allègements fiscaux de préférence à des
dépenses directes). De plus, les recettes et les dépenses sont
fortement tributaires des fluctuations de l’activité économique. La crise financière mondiale récente a lourdement pesé
sur les recettes publiques dans un grand nombre de pays de
l’OCDE.
tous les pays utilisent un ensemble commun de définitions.
Les estimations sous-jacentes concernant la population sont
fondées sur la notion de résidence. Elles tiennent compte des
personnes qui sont résidentes d’un pays pendant plus d’une
année, indépendamment de leur citoyenneté, ainsi que des
personnels diplomatiques étrangers, et des personnels de
défense, et de leurs familles, et des étudiants et patients suivant un cursus ou un traitement médical à l’étranger, même
s’ils demeurent à l’étranger pendant plus d’une année. Il
découle de la "règle d’une année” que les résidents habituels
d’un pays qui vivent à l’étranger pendant moins d’une année
sont comptabilisées dans la population tandis que les visiteurs
étrangers (les vacanciers par exemple) qui séjournent dans le
pays pendant moins d’un an en sont exclus.
Définition
Les différences apparaissant dans certains pays entre les montants des recettes et des dépenses, par habitant, des administrations publiques peuvent s’expliquer par le fait que des
individus peuvent être comptabilisés en tant que salariés dans
un pays (considérant qu’ils contribuent au PIB de ce pays en
participant à la production), mais en tant que résidents d’un
autre pays (auquel cas leurs traitements et salaires entrent
dans le revenu national brut de leur pays de résidence). Les
données relatives à l’Australie, le Chili, la Corée, la Fédération
de Russie et la Nouvelle-Zélande concernent 2009 plutôt que
2010. Le Chili, le Japon et la Turquie ne sont pas pris en compte
dans les séries de données chronologiques concernant la
moyenne de l’OCDE. Les données relatives au Mexique et à la
Fédération de Russie se rapportent à 2003 et 2002 respectivement plutôt qu’à 2001. Les données sur la Turquie portent sur
2006 plutôt que sur 2005.
Le secteur des administrations publiques regroupe l’administration centrale, les administrations d’États fédérés et les
administrations locales ainsi que les administrations de sécurité sociale rattachées à ces entités. Les données sont fondées
sur le Système de comptabilité nationale de 1993 ou sur le Système européen des comptes nationaux de 1995 de sorte que
En bref
En moyenne dans la zone de l’OCDE, les administrations
publiques ont collecté en 2010 environ 14 000 dollars USD
de recettes par habitant et dépensé près de 16 000
dollars USD par habitant.
Le Luxembourg et la Norvège sont les pays de l’OCDE qui
affichent les montants les plus élevés de recettes par habitant puisqu’ils ont perçu plus de 30 000 USD par tête ; ces
chiffres traduisent l’importance des flux de travailleurs
frontaliers et des recettes tirées de l’impôt sur les sociétés
dans le cas du Luxembourg, et des recettes du pétrole dans
celui de la Norvège. Ces deux pays, ainsi que l’Irlande, sont
aussi ceux dans lesquels les dépenses des administrations
publiques par habitant ont été les plus élevées (plus de
25 000 USD).
La Turquie, le Mexique et le Chili sont les pays dont les
recettes par habitant sont les plus faibles : inférieures à
6 000 USD en 2010. Les dépenses des administrations
publiques de ces pays sont également nettement en dessous de la moyenne (puisqu’elles représentent à peine
6 000 USD par habitant, voire moins). En règle générale, les
pays d’Europe centrale collectent eux aussi comparativement moins de recettes par habitant et dépensent également moins que la plupart des pays de l’OCDE.
Dans tous les pays, à l’exception d’un seul (Israël), les
recettes et les dépenses, par habitant, des administrations
publiques ont augmenté entre 2001 et 2010. En termes
réels, sur la période 2001-2010, l’Irlande a enregistré une
croissance annuelle des dépenses des administrations
publiques par habitant de 9 %, l’Estonie et la Corée se classant immédiatement après elle (avec un chiffre supérieur
à 5 %). Sur la même période, ces deux derniers pays
arrivent également en tête pour la croissance annuelle
réelle des recettes collectées par habitant (d’environ 5 %).
204
Comparabilité
Sources
• OCDE (2012), Panorama des administrations publiques, Éditions
OCDE.
Pour en savoir plus
Publications analytiques
• OCDE (2011), Making the Most of Public Investment in a Tight
Fiscal Environment, Multi-level Governance Lessons from the
Crisis, Éditions OCDE.
• OCDE (2011), Value for Money in Government, Éditions OCDE.
Publications statistiques
• OCDE (2012), Panorama des comptes nationaux, Éditions OCDE.
• OCDE (2011), Comptes nationaux des pays de l’OCDE, Volume
2011 Numéro 2, Tableaux détaillés, Comptes nationaux des pays de
l’OCDE, Éditions OCDE.
Bases de données en ligne
• OCDE (2010), Principaux agrégats, Comptes des administrations
publiques, Éditions OCDE.
• "Panorama des comptes nationaux", Statistiques de l’OCDE sur les
comptes nationaux.
Sites Internet
• Panorama des administrations publiques 2009 (matériel
supplémentaire), www.oecd.org/gov/indicateurs/panoramaapu.
PANORAMA DES STATISTIQUES DE L’OCDE 2013 © OCDE 2013
GOUVERNEMENT • ADMINISTRATIONS PUBLIQUES
DÉPENSES ET RECETTES DES ADMINISTRATIONS PUBLIQUES PAR HABITANT
Dépenses et recettes des administrations publiques par habitant
dollars des EU, prix courants et PPA
Recettes des administrations publiques par habitant
Allemagne
Australie
Autriche
Belgique
Canada
Chili
Corée
Danemark
Espagne
Estonie
États-Unis
Finlande
France
Grèce
Hongrie
Irlande
Islande
Israël
Italie
Japon
Luxembourg
Mexique
Norvège
Nouvelle-Zélande
Pays-Bas
Pologne
Portugal
République slovaque
République tchèque
Royaume-Uni
Slovénie
Suède
Suisse
Turquie
UE-27
OCDE
Afrique du Sud
Brésil
Chine
Fédération de Russie
Inde
Indonésie
Dépenses des administrations publiques par habitant
2001
2005
2007
2010
2001
2005
2007
2010
11 895
10 174
14 832
14 110
12 508
..
5 130
16 297
8 605
3 714
12 350
14 081
13 308
8 139
5 853
10 454
12 757
11 095
12 144
..
23 853
2 087
21 297
8 496
13 883
4 219
7 097
4 580
6 449
11 207
7 994
15 837
11 122
..
..
10 825
1 704
2 493
395
3 333
273
490
13 560
12 389
16 207
15 861
14 340
..
6 828
19 190
10 875
5 822
14 045
16 287
14 956
9 487
7 159
13 778
16 496
10 364
12 280
12 646
28 391
2 425
27 077
10 696
15 628
5 427
8 563
5 688
8 457
13 313
10 282
18 247
12 261
4 350
..
12 786
2 323
3 077
706
4 751
418
617
15 554
13 600
18 126
17 172
15 632
3 711
8 721
20 976
13 259
7 849
15 759
19 070
16 525
11 308
8 627
16 656
17 720
11 455
14 759
14 350
33 780
2 893
32 208
12 360
18 507
6 755
9 959
6 763
10 262
14 703
11 549
20 984
14 537
4 582
..
14 775
2 940
3 526
1 098
6 832
594
712
16 309
12 725
19 264
18 413
15 051
3 003
8 678
22 140
11 569
8 333
14 827
19 224
16 936
11 287
9 283
14 412
14 777
10 723
14 682
14 951
35 850
3 323
32 445
11 622
19 483
7 470
10 532
7 527
9 926
14 323
11 914
20 616
16 207
5 681
..
14 835
2 894
4 145
1 524
7 090
643
741
12 716
10 212
14 888
14 010
12 315
..
4 342
15 949
8 728
3 721
12 545
12 734
13 748
9 024
6 407
10 163
12 966
12 563
13 014
..
20 560
2 080
16 358
8 170
13 961
4 796
7 987
5 366
7 390
11 073
8 723
15 390
11 164
..
..
10 744
1 784
2 685
469
3 387
439
558
14 597
11 839
16 813
16 705
13 797
..
6 058
17 524
10 528
5 554
15 405
15 473
15 832
10 859
8 505
13 130
14 783
11 486
13 551
14 111
28 388
2 377
19 913
9 528
15 727
5 989
9 950
6 143
9 147
14 432
10 633
17 611
12 512
4 253
..
12 735
2 323
3 381
763
4 039
565
597
15 473
13 016
18 504
17 206
15 092
3 231
7 501
19 165
12 639
7 333
17 033
17 155
17 437
13 186
9 598
16 628
15 712
11 775
15 269
15 047
30 667
2 963
22 539
11 107
18 441
7 070
10 736
7 142
10 448
15 675
11 561
19 606
13 817
4 793
..
14 242
2 790
3 792
1 048
5 898
708
750
17 910
14 865
21 056
19 895
17 221
3 479
8 988
23 226
14 548
8 280
19 780
20 263
19 364
14 271
10 163
27 020
18 362
11 933
16 110
17 775
36 586
3 545
26 043
12 364
21 591
9 032
13 035
9 312
11 135
17 934
13 532
20 637
15 931
6 088
..
16 578
3 405
4 463
1 697
7 897
957
794
1 2 http://dx.doi.org/10.1787/888932715780
Recettes et dépenses des administrations publiques par habitant
Dollars EU, prix courants et PPA, 2010
Recettes
Dépenses
40 000
35 000
30 000
25 000
20 000
15 000
10 000
5 000
0
1 2 http://dx.doi.org/10.1787/888932715799
PANORAMA DES STATISTIQUES DE L’OCDE 2013 © OCDE 2013
205
GOUVERNEMENT • ADMINISTRATIONS PUBLIQUES
COÛTS DE PRODUCTION DES ADMINISTRATIONS PUBLIQUES
Les décisions concernant la quantité et le type de biens et de
services à produire ainsi que la manière de les produire dans
des conditions optimales sont souvent politiques par nature et
fonction du contexte social et culturel propre à chaque pays. Si
certains États choisissent d’externaliser une forte proportion
de la production de biens et de services en faisant appel à des
entités privées ou non contrôlées par des administrations
publiques, d’autres préfèrent les produire eux-mêmes.
Définition
Les États utilisent en parallèle leurs propres salariés, leurs
propres capitaux et des sous-traitants extérieurs (institutions
sans but lucratif ou entités du secteur privé) pour produire des
biens et des services. Dans ce dernier cas, on parle souvent
"d’externalisation”.
La notion de coûts de production et la méthodologie d’estimation de ces coûts sont fondées sur la classification existante
des dépenses publiques proposée dans le Système de comptabi-
En bref
En 2010, les coûts de production de biens et de services des
administrations publiques ont représenté en moyenne
près d’un quart du PIB dans la zone de l’OCDE, cette
moyenne dissimulant toutefois des écarts considérables
entre les pays. Les coûts de production des biens et services des administrations publiques, en pourcentage du
PIB, ont été par exemple approximativement trois fois plus
élevés au Danemark qu’au Mexique, ce qui s’explique en
partie par le fait que les administrations publiques jouent
un rôle différent dans ces deux pays.
En moyenne, la production réalisée par les salariés des
administrations publiques l’emporte encore sur la production externalisée : la rémunération des salariés représente
48 % des coûts de production des biens et des services tandis que les achats de biens et services intermédiaires à des
acteurs non contrôlés par les administrations publiques et
la fourniture directe de services aux ménages en représentent 43 %. La consommation de capital fixe absorbe les
9 % restants du total des coûts de production des administrations publiques. L’Allemagne, le Japon et les Pays-Bas,
pays dans lesquels plus de 55%, en valeur, de la production
de biens et services des administrations publiques sont
externalisés, s’en remettent davantage que d’autres pays
de l’OCDE à des sociétés privées et à des institutions sans
but lucratif pour produire des biens et des services.
Les coûts de production totaux des administrations
publiques, en pourcentage du PIB, ont progressé entre
2001 et 2010 dans tous les pays de l’OCDE sauf cinq (Israël,
la Pologne, la République slovaque, la Suède et la Suisse).
Cette hausse a été pour l’essentiel provoquée par un
recours accru à l’externalisation (les coûts des biens et des
services produits par des sociétés privées et des fournisseurs sans but lucratif ont en effet augmenté de 1.4 point
de pourcentage) et, dans une moindre mesure, par des
hausses des coûts de rémunération des fonctionnaires
(0.5 point de pourcentage). Ces augmentations pourraient
être le signe que les administrations publiques fournissent davantage de biens et de services et/ou que les
coûts des intrants ont grimpé.
206
lité nationale 1993. Plus précisément, les coûts de production
des administrations publiques recouvrent : les frais de rémunération des salariés des administrations publiques ; le coût
des biens et services produits par des entités privées pour des
administrations (incluant les biens et services fournis aussi
bien aux administrations publiques qu’aux citoyens) ; et la
consommation de capital fixe (dépréciation du capital).
Les données recouvrent l’emploi public et la consommation
intermédiaire alloués à la production pour compte propre des
administrations publiques, comme la construction de routes et
la réalisation d’autres projets d’équipement par des salariés
des administrations publiques.
Comparabilité
Les données sont fondées sur le Système de comptabilité
nationale de 1993 ou sur le Système européen des comptes
nationaux de 1995 de sorte que tous les pays utilisent un
ensemble commun de définitions. Cependant, les différences
apparaissant entre les pays en ce qui concerne le financement
des régimes de retraite des fonctionnaires peuvent entraver la
comparaison des coûts de rémunération. En outre, certains
pays ne font pas figurer séparément, dans leur comptabilité
nationale, les transferts sociaux en nature via des producteurs
marchands.
Les données relatives à l’Australie, au Chili, à la Corée, à la
Fédération de Russie et à la Nouvelle-Zélande concernent 2009
plutôt que 2010. Les données sur le Mexique portent sur 2003
plutôt que sur 2001. Les données relatives à la Fédération de
Russie concernent l’année 2002 plutôt que l’année 2001. La
moyenne des coûts de production, en pourcentage du PIB, calculée pour l’OCDE ne tient pas compte du Chili, du Japon et de
la Turquie.
Sources
• OCDE (2012), Panorama des administrations publiques, Éditions
OCDE.
Pour en savoir plus
Publications analytiques
• OCDE (2012), Corporate Governance, Value Creation and Growth,
The Bridge between Finance and Enterprise, Corporate Governance,
Éditions OCDE.
• OCDE (2009), L’emploi public, Un état des lieux, Éditions OCDE.
Publications statistiques
• OCDE (2012), Panorama des comptes nationaux, Éditions OCDE.
• OCDE (2011), Comptes nationaux des pays de l’OCDE, Volume
2011 Numéro 2, Tableaux détaillés, Comptes nationaux des pays de
l’OCDE, Éditions OCDE.
Bases de données en ligne
• OCDE (2010), Principaux agrégats, Comptes des administrations
publiques, Éditions OCDE.
Sites Internet
• Panorama des administrations publiques 2009 (matériel
supplémentaire), www.oecd.org/gov/indicateurs/panoramaapu.
PANORAMA DES STATISTIQUES DE L’OCDE 2013 © OCDE 2013
GOUVERNEMENT • ADMINISTRATIONS PUBLIQUES
COÛTS DE PRODUCTION DES ADMINISTRATIONS PUBLIQUES
Coûts de production des administrations publiques
En pourcentage du PIB
Rémunération des employés
Allemagne
Australie
Autriche
Belgique
Canada
Chili
Corée
Danemark
Espagne
Estonie
États-Unis
Finlande
France
Grèce
Hongrie
Irlande
Islande
Israël
Italie
Japon
Luxembourg
Mexique
Norvège
Nouvelle-Zélande
Pays-Bas
Pologne
Portugal
République slovaque
République tchèque
Royaume-Uni
Slovénie
Suède
Suisse
Turquie
UE-27
OCDE
Afrique du Sud
Brésil
Chine
Fédération de Russie
Inde
Indonésie
Coûts des biens et services
utilisés et financés par les administrations
publiques
Consommation de capital fixe
Total
2001
2010
2001
2010
2001
2010
2001
2010
8.2
9.4
9.8
11.7
11.4
..
6.6
17.4
10.1
10.2
9.8
13.0
13.3
10.5
11.2
8.3
14.7
13.7
10.5
..
7.9
9.1
13.0
8.5
9.6
10.7
13.9
8.9
7.1
10.1
11.7
15.6
8.1
..
..
10.8
..
..
..
8.7
..
..
7.9
10.1
9.7
12.6
12.8
8.7
7.6
19.0
11.9
11.9
11.0
14.4
13.4
12.2
10.9
11.6
14.8
11.8
11.1
6.2
8.0
9.1
13.8
10.3
10.0
10.2
12.2
7.7
7.6
11.4
12.7
14.6
8.1
8.6
..
11.3
..
..
..
11.0
..
..
11.5
6.7
9.3
9.8
8.7
..
5.5
9.5
6.7
9.3
7.3
9.8
10.1
6.3
9.1
6.7
10.3
13.8
7.5
..
7.9
2.6
8.8
10.2
14.1
8.0
6.4
9.4
11.5
9.7
8.7
12.1
4.7
..
..
8.8
..
..
..
9.4
..
..
13.0
7.4
10.2
11.7
10.0
4.4
7.3
11.6
8.7
9.4
9.2
14.1
11.9
6.0
10.4
8.3
12.2
12.6
8.8
11.8
8.5
2.7
8.9
11.6
19.4
8.4
10.0
10.2
12.1
13.1
9.1
12.9
4.8
9.4
..
10.1
..
..
..
10.2
..
..
1.7
2.3
1.4
1.6
1.9
..
1.7
1.9
1.5
1.6
1.4
2.1
2.2
2.0
3.8
1.5
1.9
1.3
1.6
..
1.7
0.0
1.9
1.6
2.4
2.2
1.9
3.8
4.6
0.9
1.5
2.2
2.2
..
..
1.9
..
..
..
0.5
..
..
1.7
2.1
1.3
1.7
2.2
1.1
2.3
1.9
1.9
2.1
1.6
2.2
2.7
2.4
3.3
1.7
2.2
1.4
2.0
3.0
1.9
0.0
2.1
1.7
2.8
1.8
2.2
2.7
4.3
1.0
2.0
2.3
2.0
0.2
..
2.0
..
..
..
0.4
..
..
21.4
18.4
20.5
23.1
22.0
0.0
13.8
28.8
18.3
21.1
18.5
24.9
25.6
18.8
24.1
16.5
26.9
28.8
19.6
..
17.5
11.7
23.7
20.3
26.1
20.9
22.2
22.1
23.2
20.7
21.9
29.9
15.0
..
..
21.5
..
..
..
18.6
..
..
22.6
19.6
21.2
26.0
25.0
14.2
17.2
32.5
22.5
23.4
21.8
30.7
28.0
20.6
24.6
21.6
29.2
25.8
21.9
21.0
18.4
11.8
24.8
23.6
32.2
20.4
24.4
20.6
24.0
25.5
23.8
29.8
14.9
18.2
..
23.4
..
..
..
21.6
..
..
1 2 http://dx.doi.org/10.1787/888932715818
Structure des coûts de production des administrations publiques
Pourcentage, 2010
Rémunération des employés
Coûts des biens et services utilisés et financés par les administrations publiques
Consommation de capital fixe
100
90
80
70
60
50
40
30
20
10
0
1 2 http://dx.doi.org/10.1787/888932715837
PANORAMA DES STATISTIQUES DE L’OCDE 2013 © OCDE 2013
207
GOUVERNEMENT • TRANSPARANCE DU GOUVERNMENT
DIVULGATION DES CONFLITS D’INTÉRÊTS
Transparance du gouvernment
Il est essentiel, pour préserver la confiance à l’égard des élus et
des organismes publics, de veiller à ce que l’intégrité du processus décisionnel ne soit pas compromise par des conflits
d’intérêts. Il y a conflit d’intérêts lorsque les intérêts privés
d’un représentant de l’État peuvent influencer de manière abusive l’exercice de ses fonctions officielles. Si elles ne sont pas
identifiées et gérées de manière appropriée, les situations de
conflit d’intérêts peuvent ouvrir la voie à la corruption. La
divulgation des intérêts privés des agents publics est largement reconnue comme un outil essentiel pour recenser et prévenir les conflits d’intérêts. Généralement, c’est la loi qui
impose de divulguer ces intérêts mais certains agents publics
ou élus les communiquent volontairement. Il est aussi crucial
que le grand public ait accès aux informations divulguées par
les principaux décideurs, de manière à ce que les citoyens
comme la société civile soient en mesure de vérifier ces informations et de demander des comptes aux pouvoirs publics.
Définition
Les données correspondent à la proportion, en pourcentage,
d’intérêts privés divulgués par les ministres/membres du gouvernement et les parlementaires de la « chambre basse ».
L’OCDE a analysé huit grands types d’informations sur les intérêts privés, à savoir : patrimoine, dette, montant et source(s) de
tout revenu extérieur, emploi extérieur rémunéré ou non,
cadeaux reçus et emploi précédent.
tiré de la rémunération (salaire) perçue dans le cadre des fonctions exercées. L’emploi extérieur inclut les emplois rémunérés ou non (ou relevant du bénévolat) occupés en dehors des
fonctions exercées au sein du gouvernement ou du parlement.
La déclaration des cadeaux reçus est comptabilisée conformément à la législation ou aux règlements des pays concernés
s’agissant des seuils au-delà desquels la déclaration est obligatoire. L’emploi précédent fait référence à la désignation des
entités où les agents travaillaient avant de prendre leurs fonctions actuelles.
Comparabilité
Toutes les données sont recueillies via l’Enquête 2010 de
l’OCDE sur l’intégrité. Dans certains pays, certains types d’intérêts privés sont interdits (il peut par exemple être interdit
d’occuper un emploi « extérieur » ou de recevoir des cadeaux).
Ces intérêts sont présentés dans les graphiques sous la catégorie « activité interdite ». Les seuils au-delà desquels il est obligatoire de déclarer les cadeaux reçus varient d’un pays à
l’autre. Aucune donnée n’est disponible pour le Luxembourg.
Le patrimoine englobe les biens immobiliers et tous les actifs
mobiliers (automobiles, bateaux, valeurs mobilières et avoirs
disponibles). La dette recouvre les emprunts et les dettes. Le
revenu extérieur (et sa source) correspond à tout revenu non
En bref
La divulgation des intérêts privés des agents publics et
l’accès du public à ces informations sont essentiels pour
promouvoir la transparence et renforcer la confiance à
l’égard de l’administration. Par ailleurs, les recherches ont
montré que le développement économique dépend en
partie de la confiance des citoyens vis-à-vis de l’État. Pourtant, dans la quasi-totalité des pays membres de l’OCDE,
la divulgation obligatoire des intérêts privés reste partielle
et ces informations ne sont pas toutes rendues publiques.
Sur les 8 intérêts analysés, les ministres et membres du
gouvernement français et suisses ne sont tenus de déclarer que peu d’informations sur leurs intérêts privés. Au
Brésil, en Slovénie et en Turquie, la plus grande partie des
informations fournies sont mises à la disposition du
public.
S’agissant des parlementaires, la Finlande et la France
n’imposent que des obligations limitées en matière de
déclaration des intérêts privés. À l’inverse, la République
tchèque et le Royaume-Uni exigent une transparence
quasi-totale. Aux États-Unis et en Corée, toutes les informations relatives aux intérêts privés sont généralement
divulguées et rendues publiques.
En général, les intérêts les plus réglementés sont les fonctions rémunérées ou non exercées à l’extérieur, suivies par
les cadeaux reçus. Ces activités sont interdites dans plusieurs pays et le seuil au-delà duquel la déclaration des
cadeaux reçus est obligatoire varie selon les pays.
208
Sources
• OCDE (2012), Panorama des administrations publiques, Éditions
OCDE.
Pour en savoir plus
Publications analytiques
• OCDE (2012), Lobbyists, Governments and Public Trust, Volume 2,
Promoting Integrity through Self-regulation, Éditions OCDE.
• OCDE (2011), Corporate Governance of State-Owned Enterprises,
Change and Reform in OECD Countries since 2005, Éditions
OCDE.
• OCDE (2010), L’emploi d’après mandat : Bonnes pratiques en
matière de prévention des conflits d’intérêts, Éditions OCDE.
• OCDE (2004), Gérer les conflits d’intérêts dans le service public :
lignes directrices de l’OCDE et expériences nationales, Éditions
OCDE.
Publications méthodologiques
• OCDE (2010), Accountability and Transparency: A Guide for
State Ownership, Corporate Governance, Éditions OCDE.
• OCDE (2007), “Benchmarks for Integrity: Tracking Trends in
Governance”, OECD Papers, Vol. 7/7.
• OCDE (2005), Gérer les conflits d’intérêts dans le secteur public :
Mode d’emploi, Éditions OCDE.
Sites Internet
• Managing Conflict of Interest in the Public Service,
www.oecd.org/gov/ethics/conflictofinterest
PANORAMA DES STATISTIQUES DE L’OCDE 2013 © OCDE 2013
GOUVERNEMENT • TRANSPARANCE DU GOUVERNMENT
DIVULGATION DES CONFLITS D’INTÉRÊTS
Niveau de divulgation des intérêts privés des ministres ou membres du Cabinet
Pourcentage des intérêts privés analysés, 2010
Activité prohibée
Informations déclarées et librement accessibles
Informations déclarées main non librement accessibles
Declaration n’est pas requise
100
90
80
70
60
50
40
30
20
10
0
1 2 http://dx.doi.org/10.1787/888932715856
Niveau de divulgation des intérêts privés des parlementaires membres de la chambre basse
Pourcentage des intérêts privés analysés, 2010
Activité prohibée
Informations déclarées et librement accessibles
Informations déclarées main non librement accessibles
Declaration n’est pas requise
100
90
80
70
60
50
40
30
20
10
0
1 2 http://dx.doi.org/10.1787/888932715875
PANORAMA DES STATISTIQUES DE L’OCDE 2013 © OCDE 2013
209
GOUVERNEMENT • TRANSPARANCE DU GOUVERNMENT
PORTÉE DES LÉGISLATIONS RELATIVES À L’ACCÈS À L’INFORMATION
Les lois sur la liberté d’information – ou lois sur l’accès à l’information – constituent l’un des piliers de l’ouverture de l’administration publique. Ces lois contribuent à renforcer la transparence
et la responsabilité de l’administration publique et à encourager
une participation éclairée à l’élaboration de l’action publique.
Pour autant, le poids et la portée de ces lois varient considérablement au sein de la zone OCDE en termes d’institutions et de types
d’information couverts, sous l’effet des différences entre les systèmes institutionnels et juridiques des pays.
Ainsi, sur le plan institutionnel, la portée des législations relatives à l’accès à l’information peut s’étendre verticalement à
tous les échelons de l’administration (de l’administration centrale aux administrations locales) et horizontalement à tous les
pouvoirs constitutifs de l’État (législatif, judiciaire et exécutif).
En termes de couverture, ces législations peuvent contenir des
listes d’exemptions susceptibles d’être appliquées pour justifier la non-divulgation de certaines informations. L’enquête
menée en 2010 par l’OCDE sur l’ouverture de l’administration
publique évaluait ces deux dimensions, en analysant l’ampleur
et la portée des législations relatives à l’accès à l’information à
l’échelon central/fédéral dans les pays membres.
Comparabilité
Les données ont été recueillies au moyen de l’enquête menée
par l’OCDE en 2010 sur l’ouverture de l’administration
publique. Ont participé à cette enquête des fonctionnaires de
l’administration centrale responsables de la mise en œuvre des
initiatives d’ouverture de l’administration. Les données font
uniquement référence aux dispositions des législations sur
l’accès à l’information existantes à l’échelon central/fédéral,
sans tenir compte de toute législation supplémentaire susceptible d’être appliquée à l’échelon infranational.
Dans certains pays, le principe de l’intérêt général et/ou de la
discrétion des ministères peut primer sur la catégorie d’information concernée ou le préjudice potentiel et aboutir à une
divulgation de l’information si les avantages qui en découlent
pour l’intérêt général l’emportent sur tout préjudice éventuel.
32 pays de l’OCDE ont participé à l’enquête, ainsi que la Fédération de Russie. Aucune donnée n’est disponible pour l’Allemagne, la Grèce et le Luxembourg. En Italie, la législation
relative à l’accès à l’information ne s’applique qu’aux actes
administratifs et non législatifs.
Définition
Les exemptions par rapport aux législations sur l’accès à
l’information peuvent être fondées sur la catégorie d’information concernée ou sur le préjudice potentiel. Selon le principe
de la catégorie, l’accès à toute information relevant d’une certaine catégorie (comme la sécurité nationale) peut être refusé.
Conformément au principe du préjudice potentiel, l’administration peut rejeter une demande d’information si elle
démontre que la divulgation de cette information pourrait causer un préjudice, notamment à un individu, ou porter atteinte
à la défense de l’État (les deux motifs les plus couramment
invoqués). Les exemptions aux demandes d’accès à l’information peuvent être d’ordre obligatoire (l’organisme public est
tenu de ne pas divulguer l’information) ou d’ordre discrétionnaire (les organismes publics peuvent décider s’il convient de
divulguer ou non l’information).
En bref
Dans la plupart des pays de l’OCDE, la portée des lois relatives à l’accès à l’information s’étend à tous les échelons
de l’administration. Dans la majorité des pays, tous les
organes qui constituent le pouvoir exécutif de l’administration centrale (ministères/départements et organismes
gestionnaires) sont soumis à la législation sur l’accès à
l’information. Les pouvoirs législatif et judiciaire sont souvent moins concernés. Les organismes privés qui gèrent
des fonds publics, comme ceux auxquels l’administration
fait appel pour fournir des services aux citoyens, sont soumis à la législation sur l’accès à l’information dans plus de
la moitié des pays membres.
Le critère de la catégorie d’information appliqué par le
plus grand nombre de pays de l’OCDE est utilisé pour les
exemptions liées à la sécurité nationale, aux relations
internationales et aux informations personnelles. Le critère du préjudice potentiel le plus courant concerne également les questions de sécurité nationale et de relations
internationales.
210
Sources
• OCDE (2012), Panorama des administrations publiques, Éditions
OCDE.
Pour en savoir plus
Publications analytiques
• OCDE (2009), Focus on Citizens: Public Engagement for Better
Policies and Services, OECD Studies on Public Engagement,
Éditions OCDE.
• OCDE (2005), “Public Sector Modernisation: Open
Government”, OECD Policy Brief, Éditions OCDE.
• OCDE (2003), Open Government, Fostering Dialogue with Civil
Society, Éditions OCDE.
Publications méthodologiques
• OCDE (2010), Accountability and Transparency: A Guide for
State Ownership, Corporate Governance, Éditions OCDE.
Sites Internet
• Panorama des administrations publiques 2009 (matériel
supplémentaire), www.oecd.org/gov/indicateurs/panoramaapu.
Définition
Les dépenses sociales comprennent les prestations en espèces,
les biens et services fournis directement (prestations " en
nature "), et les allégements fiscaux accordés à des fins
sociales. Les prestations peuvent être ciblées sur les ménages à
faible revenu, les personnes âgées, les handicapés, les personnes malades, les chômeurs ou les jeunes. Pour être considérés comme " sociaux ", les programmes doivent se
caractériser soit par une redistribution des ressources entre les
ménages, soit par une participation obligatoire. Les prestations
sociales sont considérées comme publiques lorsque les administrations publiques (c’est-à-dire l’administration centrale,
les administrations d’États fédérés et les administrations
locales, ainsi que les administrations de sécurité sociale)
contrôlent les flux financiers correspondants. Toutes les pres-
En bref
Les dépenses sociales publiques brutes sont passées
d’environ 16 % en 1980 à 18 % en 1990 et 22 % du PIB
en 2009 dans les pays de l’OCDE. Les pays où elles
atteignent le niveau le plus élevé, soit plus de 30 % du PIB,
sont la France et le Danemark, et ceux où elles sont au
niveau le plus bas, soit moins de 10 % du PIB, la Corée et le
Mexique. Indépendamment des différences liées aux
mesures, il apparaît que les pays non membres de l’OCDE,
en particulier l’Indonésie et l’Inde, ont des niveaux de protection sociale inférieurs à ceux des pays de l’OCDE. Les
trois principales catégories de transferts sociaux sont les
pensions de retraite et de réversion (8 % du PIB en
moyenne), les dépenses de santé (7 %) et les transferts de
revenus à la population en âge de travailler (5 %). Les
dépenses publiques au titre des autres services sociaux ne
dépassent 5 % du PIB que dans les pays nordiques, où la
contribution des pouvoirs publics à la fourniture des services destinés aux personnes âgées, aux handicapés et
aux familles est la plus importante.
En 2009, c’est aux États-Unis que les dépenses sociales privées brutes étaient les plus élevées (un peu plus de 10 %
du PIB) et en Espagne, en Estonie, en Hongrie, au Mexique,
en Nouvelle-Zélande, en Pologne, en République tchèque
et en Turquie qu’elles étaient les plus faibles (moins de 1 %
du PIB).
Le passage des dépenses publiques brutes aux dépenses
sociales totales nettes ne se traduit pas seulement par une
plus grande convergence entre les pays, il entraîne en
outre des changements dans le classement. L’Estonie, le
Danemark, la Finlande, le Luxembourg et la Pologne
reculent de 5 à 10 places tandis que le Canada, l’Islande, le
Japon, les Pays-Bas et le Royaume-Uni gagnent 5 à
10 places. Parce que les dépenses sociales privées sont tellement plus élevées aux États-Unis que dans tous les
autres pays, le fait de les prendre en compte fait passer ce
pays de la 22e à la 2e place lorsque l’on compare les
dépenses sociales totales nettes.
212
tations sociales non fournies par les administrations publiques
sont considérées comme " privées ". Les transferts privés entre
ménages ne sont pas considérés comme " sociaux " et ne sont
pas pris en compte ici. Les dépenses sociales nettes totales
englobent les dépenses publiques et les dépenses privées. Elles
prennent également en considération les effets de la fiscalité
directe et indirecte et des allégements fiscaux à visées sociales.
Comparabilité
Les dépenses sociales publiques brutes (avant impôt) rapportées au PIB constituent l’indicateur d’aide sociale le plus couramment utilisé à des fins de comparaisons internationales. Il
soulève des problèmes de mesure, notamment en ce qui
concerne les dépenses des niveaux d’administration inférieurs, qui sont parfois sous-estimées dans certains pays.
Les données concernant les prestations sociales similaires
fournies par des organisations caritatives privées sont souvent
de moindre qualité que celles concernant les dépenses
publiques. Les données de sources privées concernant Israël
font uniquement référence à l’assurance maladie privée.
On ne dispose pas actuellement de données sur les dépenses
nettes pour la Grèce, la Hongrie et la Suisse. Les données nettes
concernant la France, l’Islande, le Luxembourg et le Mexique
sont des estimations établies à l’aide de données relatives aux
taux des impôts directs appliqués aux revenus sous forme de
prestations pour 2007. En l’absence d’informations sur l’imposition directe des revenus sous forme de prestations en Slovénie, les dépenses sociales nettes totales de ce pays sont
surestimées et ne sont donc pas prises en compte dans le
calcul de la moyenne de l’OCDE.
Les données concernant les pays non membres de l’OCDE ne
sont pas strictement comparables avec celles relatives aux
pays de l’OCDE.
Sources
• OCDE (2012), Statistiques de l’OCDE sur les dépenses sociales
(Base de données).
• OCDE (2011), Perspectives de l’emploi de l’OCDE 2011,
Perspectives de l’emploi de l’OCDE, Éditions OCDE.
Pour en savoir plus
Publications analytiques
• Adema, W., P. Fron et M. Ladaique (2011), “Is the European
Welfare State Really More Expensive?: Indicators on Social
Spending, 1980-2012; and a Manual to the OECD Social
Expenditure Database (SOCX)”, OECD Social, Employment
and Migration Working Papers, No. 124, Éditions OCDE.
• OCDE (2012), Panorama de la société, Éditions OCDE.
• OCDE (2011), Assurer le bien-être des familles, Éditions OCDE.
Sites Internet
• Base de données sur les dépenses sociales (SOCX),
www.oecd.org/els/social/depenses.
• La base de données de l’OCDE sur la famille, www.oecd.org/
social/famille/basededonnées.
• La santé mentale et l’emploi (matériel supplémentaire),
www.oecd.org/els/invalidite.
• Politiques et données sociales, www.oecd.org/els/social/
statistiques.
PANORAMA DES STATISTIQUES DE L’OCDE 2013 © OCDE 2013
GOUVERNEMENT • DÉPENSES PUBLIQUES
DÉPENSES SOCIALES
Dépenses sociales publiques et privées
En pourcentage du PIB
Dépenses publiques
Allemagne
Australie
Autriche
Belgique
Canada
Chili
Corée
Danemark
Espagne
Estonie
États-Unis
Finlande
France
Grèce
Hongrie
Irlande
Islande
Israël
Italie
Japon
Luxembourg
Mexique
Norvège
Nouvelle-Zélande
Pays-Bas
Pologne
Portugal
République slovaque
République tchèque
Royaume-Uni
Slovénie
Suède
Suisse
Turquie
UE-27
OCDE
Afrique du Sud
Brésil
Chine
Fédération de Russie
Inde
Indonésie
Dépenses
sociales totales
nettes
Dépenses privées
1990
2000
2006
2007
2008
2009
2010
2011
1990
2000
2007
2009
2009
21.7
13.2
23.8
24.9
18.1
..
2.8
25.1
19.9
..
13.6
24.1
25.1
16.6
..
17.3
13.7
..
19.9
11.1
19.1
3.3
22.3
21.5
25.6
14.9
12.5
..
15.3
16.7
..
30.2
13.5
5.7
..
17.7
..
..
..
..
..
..
26.6
17.3
26.6
25.3
16.5
12.8
4.8
26.4
20.2
13.9
14.5
24.2
28.6
19.3
20.7
13.4
15.2
17.2
23.1
16.3
20.9
5.3
21.3
19.0
19.8
20.5
18.9
17.9
19.1
18.6
22.8
28.4
17.8
9.8
..
18.9
..
..
..
..
..
..
26.1
16.5
26.8
26.0
16.9
9.3
7.4
27.1
21.1
13.8
16.1
25.8
29.8
21.3
22.8
16.1
15.9
15.8
25.0
18.4
21.8
7.0
20.3
18.9
21.7
20.8
23.0
16.0
18.3
20.3
21.6
28.4
19.2
10.0
..
19.6
..
..
..
..
..
..
25.1
16.4
26.3
26.0
16.8
9.4
7.6
26.5
21.3
13.5
16.3
24.7
29.7
21.6
23.0
16.7
15.3
15.5
24.7
18.7
20.3
7.1
20.5
18.6
21.1
19.7
22.7
15.7
18.1
20.4
20.2
27.3
18.5
10.5
..
19.3
8.1
16.3
..
15.5
4.6
2.9
25.2
17.8
26.8
27.3
17.6
10.4
8.3
26.8
22.9
16.7
17.0
25.3
29.8
22.2
23.1
19.7
15.8
15.5
25.8
19.9
20.8
7.5
19.8
19.8
20.9
20.3
23.1
15.7
18.1
21.8
20.5
27.5
18.4
10.7
..
20.0
..
..
6.5
..
..
..
27.8
17.8
29.1
29.7
19.2
12.0
9.4
30.2
26.0
23.5
19.2
29.4
32.1
23.9
23.9
23.6
18.5
16.0
27.8
22.4
23.6
7.7
23.3
21.2
23.2
21.5
25.6
18.7
20.7
24.1
23.4
29.8
20.1
12.8
..
22.3
..
..
..
..
..
..
27.1
17.9
28.8
29.5
18.6
12.4
9.2
30.1
26.5
23.4
20.0
29.4
32.2
23.3
22.6
23.7
18.0
16.5
27.8
..
23.0
7.8
23.0
21.5
23.5
21.8
25.6
19.0
20.8
23.7
24.3
28.3
20.0
..
..
22.2
..
..
..
..
..
..
26.2
18.1
27.9
29.6
18.3
12.1
9.2
30.0
26.0
21.9
19.8
28.6
32.1
23.5
21.8
23.4
17.8
16.3
27.6
..
22.5
8.1
22.6
21.8
23.7
20.7
25.2
18.0
20.9
23.9
24.9
27.6
20.2
..
..
21.9
..
..
..
..
..
..
3.0
0.8
2.2
1.6
3.3
0.6
0.4
2.1
0.2
..
7.6
1.1
1.9
2.1
..
1.4
3.0
..
3.9
0.3
..
0.1
1.9
0.2
6.1
..
0.9
..
..
5.1
..
1.2
5.3
..
..
1.8
..
..
..
..
..
..
3.0
4.4
1.9
1.7
5.0
1.2
2.9
2.4
0.3
..
9.1
1.2
2.6
2.1
0.0
1.3
4.2
0.3
2.2
3.9
0.1
0.1
2.0
0.5
7.3
..
1.5
0.8
0.3
7.7
0.0
2.6
8.3
..
..
2.4
..
..
..
..
..
..
2.9
3.8
1.9
2.2
5.3
2.7
2.7
2.6
0.5
0.0
10.6
1.1
2.9
1.5
0.2
1.5
5.1
0.5
2.2
3.6
1.0
0.2
2.0
0.4
6.9
0.0
1.9
1.0
0.4
5.4
1.1
2.9
8.3
..
..
2.5
..
..
..
..
..
..
3.2
3.1
2.1
2.3
5.1
3.0
2.7
2.9
0.5
0.0
10.6
1.2
3.1
1.8
0.2
2.2
6.0
0.6
2.3
4.0
1.7
0.3
2.3
0.5
6.7
0.0
1.9
0.9
0.7
6.3
1.2
3.2
8.0
..
..
2.7
..
..
..
..
..
..
27.5
19.9
25.6
28.1
22.9
13.8
12.4
25.3
25.2
19.7
28.9
24.8
32.1
..
..
23.3
20.8
14.9
25.5
25.3
20.3
8.8
20.7
19.3
25.3
18.3
25.3
18.5
19.9
27.7
22.8
26.1
..
11.9
..
21.9
..
..
..
..
..
..
1 2 http://dx.doi.org/10.1787/888932715932
Dépenses sociales publiques et privées et total net
En pourcentage du PIB, 2009
Publiques
Privées
Total net
35
30
25
20
15
10
5
0
1 2 http://dx.doi.org/10.1787/888932715951
PANORAMA DES STATISTIQUES DE L’OCDE 2013 © OCDE 2013
213
GOUVERNEMENT • DÉPENSES PUBLIQUES
DÉPENSES DE RETRAITE
Les systèmes de retraite diffèrent selon les pays et il n’est pas
de modèle unique qui convienne à tous. En général, ils allient
des financements publics et privés. Les régimes de retraite
publics sont obligatoires, le plus souvent financés par répartition, ce qui signifie que les cotisations acquittées par les actifs
sont utilisées pour financer les prestations versées aux retraités, et gérés par des institutions publiques. Les régimes de
retraite privés sont dans certains cas obligatoires, mais le plus
souvent il s’agit de plans de retraite volontaires par capitalisation mis en place par les employeurs (plans de retraite professionnels) ou de plans d’épargne-retraite individuels.
Définition
Les prestations de vieillesse sont considérées comme publiques
lorsque les flux financiers correspondants sont contrôlés par des
administrations publiques (administration centrale et collectivités
locales ou caisses de sécurité sociale). Les prestations de retraite
versées par les administrations publiques à leurs propres
employés et financées directement sur le budget de l’État sont
aussi réputées publiques. Les prestations publiques sont généralement financées par répartition, mais il existe aussi parfois
des mécanismes par capitalisation. Toutes les prestations de
retraite qui ne sont pas versées par des administrations
publiques relèvent du secteur des régimes privés.
Les dépenses de retraite privées comprennent les versements
effectués au profit de titulaires de plans de retraite privés (ou
personnes à charge) après la retraite. Sont inclus tous les types
de régimes (plans professionnels et individuels, obligatoires et
En bref
En 2009, les dépenses publiques affectées au financement
des prestations de vieillesse représentaient en moyenne
7.8 % du PIB alors que les prestations de retraite privées
ressortaient en moyenne à 2.2 % du PIB la même année
(dans les pays pour lesquels des données sont disponibles
sur la période 2004-2010). Les dépenses publiques consacrées aux prestations de vieillesse atteignent les montants
les plus élevés – soit plus de 10 % du PIB – en Allemagne,
en Autriche, en France, en Grèce, en Italie, au Japon, en
Pologne, au Portugal et en Slovénie. En Australie, en Corée,
en Islande et au Mexique en revanche, elles n’absorbent
que 4 % du PIB, voire moins.
C’est en Australie, au Danemark, en Islande, aux Pays-Bas
et en Suisse que les dépenses privées consacrées au financement les prestations de vieillesse atteignent les niveaux
les plus élevés, soit plus de 3.5 % du PIB. Elles demeurent
en revanche négligeables dans environ un tiers des pays
de l’OCDE.
La part des retraites privées dans les dépenses totales
affectées au financement des prestations de vieillesse ne
dépasse 50 % qu’en Australie et en Islande. Elle est en
moyenne de 22 %.
Au cours du temps, les dépenses publiques de retraite ont
augmenté légèrement plus vite que le revenu national,
passant d’une moyenne de 6.5 % du PIB en 1990 à 7.8 %
en 2009.
Les dépenses de retraite privées ont aussi progressé
entre 2001 et 2010, passant d’une moyenne de 1.8 % du PIB
en 2001 à 2.1 % en 2010.
214
volontaires, capitalisés et provisionnés) couvrant les personnes qui travaillent aussi bien dans le secteur public que
dans le secteur privé.
Seules les données relatives aux prestations de vieillesse et de
réversion en espèces sont présentées ici.
Comparabilité
Les données sur les dépenses publiques de retraite proviennent de la Base de données sur les dépenses sociales de
l’OCDE (SOCX) tandis que celles relatives aux dépenses de
retraite ayant servi à financer des régimes de pension privés
proviennent de la base de données de l’OCDE intitulée Global
Pension Statistics (GPS). Cette base contient des informations
sur les mécanismes de retraite par capitalisation,
lesquels regroupent des plans de retraite par capitalisation privés et publics.
Bien que la base de données GPS couvre toutes les catégories de
mécanismes de retraite privés pour la plupart des pays, concernant l’Allemagne, l’Autriche, le Canada, le Luxembourg et les
États-Unis, les données ne tiennent compte que des fonds de
pension autonomes. La rupture constatée dans les séries
concernant le Mexique résulte de la prise en compte des plans
de retraite professionnels reconnus par la CONSAR (Commission nationale pour l’épargne retraite) à partir de 2005. La forte
augmentation des dépenses privées de retraite observée en
Islande entre 2008 et 2009 s’explique par la hausse du nombre
de personnes ayant décidé de prendre leur retraite à cause du
pic de chômage déclenché par la crise bancaire et par l’adoption
d’une loi spéciale temporaire autorisant les titulaires de plans
de retraite individuels à retirer des montants plafonnés.
Aucune donnée sur les dépenses privées n’est collectée en ce
moment pour les pays classés à part sur le côté gauche du graphique.
Sources
• OCDE (2012), Statistiques de l’OCDE sur les pensions (Base de
données).
• OCDE (2012), Dépenses sociales, Statistiques de l’OCDE sur les
dépenses sociales (Base de données).
Pour en savoir plus
Publications analytiques
• OCDE (2012), Perspectives de l’OCDE sur les pensions 2012,
Éditions OCDE.
• OCDE (2012), Les pensions dans les pays de l’OCDE, Éditions
OCDE.
• OCDE (2009), Perspectives de l’OCDE sur les pensions privées
2008, Éditions OCDE.
Publications méthodologiques
• OCDE (2005), Les pensions privées : Classification et glossaire de
l’OCDE, Éditions OCDE.
Sites Internet
• Panorama des pensions 2009: Les systèmes de retraites dans
les pays de l’OCDE (matériel supplémentaire), www.oecd.org/
els/social/pensions/pag-fr.
• Perspectives de l’OCDE sur les pensions privées 2008
(matériel supplémentaire), www.oecd.org/daf/pensions/
pensionmarkets.
PANORAMA DES STATISTIQUES DE L’OCDE 2013 © OCDE 2013
GOUVERNEMENT • DÉPENSES PUBLIQUES
DÉPENSES DE RETRAITE
Dépenses de retraite publiques et privées
En pourcentage du PIB
Dépenses publiques
Allemagne
Australie
Autriche
Belgique
Canada
Chili
Corée
Danemark
Espagne
Estonie
États-Unis
Finlande
France
Grèce
Hongrie
Irlande
Islande
Israël
Italie
Japon
Luxembourg
Mexique
Norvège
Nouvelle-Zélande
Pays-Bas
Pologne
Portugal
République slovaque
République tchèque
Royaume-Uni
Slovénie
Suède
Suisse
Turquie
UE-27
OCDE
Afrique du Sud
Brésil
Chine
Fédération de Russie
Inde
Indonésie
Dépenses privées
2000
2005
2006
2007
2008
2009
2005
2006
2007
2008
2009
2010
11.1
3.8
12.2
8.9
4.3
7.3
1.4
5.3
8.6
6.0
5.9
7.6
11.8
10.8
7.6
3.1
2.2
4.9
13.5
7.3
7.5
0.9
4.8
5.0
5.0
10.5
7.9
6.3
7.2
5.3
10.5
7.2
6.6
..
..
6.9
..
..
..
..
..
..
11.4
3.3
12.4
9.0
4.1
5.7
1.5
5.4
8.1
5.3
6.0
8.4
12.4
11.8
8.5
3.4
2.0
5.1
13.9
8.7
7.2
1.2
4.8
4.3
5.0
11.4
10.3
6.2
7.0
5.6
9.9
7.6
6.8
5.9
..
7.0
..
..
..
..
..
..
| 27,697
|
2015LEHA0021_10
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,015
|
L'insaisissable famille
|
None
|
French
|
Spoken
| 7,173
| 10,600
|
167
économique des relations familiales, notamment par le biais de l’éducation ou des prestations sociales. Ainsi l’arrêt Tadao Maruko / Versorgungsanstalt der deutschen Bühnen du 1er avril 2008285 marque-t-il le droit social de la famille en décidant qu’un partenaire de vie du même sexe peut avoir droit à une pension. Les juges ont pris soin de préciser que ce droit tenait à la nature de la pension. Il s’agissait, en effet, non d’une pension de solidarité (comme le régime de base de retraite) mais bien d’une pension de survie, considérée comme une rémunération, et qui dépendait donc de la relation entre employeur et employé. La décision est également prise compte tenu du fait que la loi allemande concernant le partenariat de vie ouvre aux partenaires des droits égaux à ceux du mariage en matière de prestations sociales. 244. L’intégration des droits fondamentaux dans toute réflexion et décision des gouvernants a rendu nécessaire l’émergence d’un droit de la famille européen ou plus subtilement, d’un droit relatif à la famille européenne. Il s’agit d’un droit inédit, construit autour d’un centre de gravité à valeur fondamentale. Les droits fondamentaux constituent un gage d’équilibre pour ce droit européen de la famille européen soucieux de préserver à la fois l’intérêt individuel et l’intérêt général. En outre, ils fédèrent, dans une conscience collective, les diversités juridiques et culturelles nécessaires à la construction et à la reconnaissance de ce nouveau droit qui « s’écrit à plusieurs mains et se lit à plusieurs voix »286. L’individualisme apparait clairement dans les droits « au mariage » et « à la vie familiale » qui peuvent se traduire par le droit à l’équilibre sentimental, voire le droit au bonheur. La famille et sa protection se voient à travers le regard des individus et de l’idée qu’ils se font des relations familiales. La revendication du droit à la vie familiale obéit donc à une revendication individuelle et ne correspond plus à la famille « institution ». Le droit à la vie familiale est ainsi un droit individuel à vivre une vie familiale. La protection des droits fondamentaux est aujourd’hui prioritaire et, tout naturellement, la Cour européenne aborde la famille sous cet angle. Il faut alors se demander comment appréhender son influence dans le droit de la famille dont l’un des objectifs reste de veiller à une certaine unité à travers un modèle ou plusieurs modèles et non d’être l’arbitre des concurrences individuelles. Le texte intégral de l’arrêt se trouve
sur le site
Internet
de la Cour :
CJCE
, 1
er
avril 2008
, Tadao Maruko / Versorgungsanstalt der deutschen Bühnen, Affaire C-267/06 JCP G 2008, II, 10143, note A. Devers et F. Viangalli ; Dr. Fam. 2008, comm. 92 Obs. A. Devers. 286 F. Krenc, « La comparaison des systèmes de procédure communautaire avec ceux de la Convention européenne des droits de l’homme », RTDH, 2004/57 p 111. 285 168
245. Le rapprochement autour d’un même axe suppose une convergence des points de vue. Le premier obstacle est « la superposition de trois ordres normatifs nationaux et supranationaux et de trois sortes de contrôle juridictionnel de constitutionnalité ou de conventionalité des normes propres aux pays de la Communauté européenne ne fait qu’accentuer et complexifier l’enchevêtrement des normes et des pouvoirs et le processus de production, d’interprétation et d’application du droit dans les Etats membres »287. Chacun des Etats puise ainsi dans la pluralité des sources européennes ce qui lui convient le mieux. Le rapprochement des droits nationaux repose donc sur un échange entre les sources européennes nationales et supranationales. Les règles et normes européennes en matière familiale sont connues ; faut-il en déduire qu’elles forment un droit? Un droit unique, non ; pas encore et peut-être jamais. Les dispositions européennes relatives à la famille proviennent d’influences et d’emprunts de règles préexistants dans d’autres ordres, à l’échelon national et international. Le droit européen est un droit pluriel : pluralité des droits, des sources, des juges, des voies juridictionnelles, des procédures... De ce fait, il s’accommode mal des strictes hiérarchies pyramidales. Il s’inscrit davantage dans l’émergence progressive « d’un nouveau modèle plus complexe, plus ‘ enchevêtré ’, celui du réseau »288. Ce modèle élaboré par Messieurs Ost et Van de Kerchove289 caractérise bien l’espace européen, au sein duquel coexistent plus qu’ils ne se superposentet sans se confondre, l’ordre juridique de l’Union européenne et celui fondé sur la Convention européenne des droits de l’homme.
À
l’instar de tout droit créé à l’échelle européenne, le droit de la famille européen devra réussir le pari d’exister à travers deux ordonnancements européens : l’Union européenne et le Conseil de l’Europe290. Le second est dans une logique de coopération qui vise à harmoniser les droits nationaux autour de valeurs communes. En revanche, la logique de la première est intégrative et vise une unification
.291 287 M.-T. Meulders-Klein, « Vers une européanisation du droit de la famille? Une approche politique », dans H. Fulchiron (dir.), Mariage-Conjugalité, parenté-parentalité, Dalloz, 2009, p.287. 288 F. Ost et M. Van de Kerchove, « De la pyramide au réseau? Vers un nouveau mode de production du droit? », Revue interdisciplinaire d’études juridiques 2000.44, p. 2. 289 F. Ost et M. Van de Kerchove De la pyramide au réseau? Pour une théorie dialectique du droit (en collaboration avec Fr. Ost), 2002, Bruxelles, Publications des Facultés universitaires Saint-Louis. 290 Qui ont un champ spatial bien différent 169
Il résulte de cette bipolarité un système de droit singulier, éloigné du système unitaire traditionnel. Le droit de la famille européen n’est pas délimité, et pas encore codifié, mais il existe déjà parce qu’il a de véritables sources produisant des règles très différentes ou seulement nuancées de celles issues des différents droits nationaux. Certes, son existence ne repose pas sur une parfaite cohérence, mais elle suffit à imposer le droit européen dans le paysage juridique de la famille avec la même évidence que les calvaires dans le paysage breton. 246. La coexistence (ou la mutuelle influence) des droits est cependant parfois mal vécue. Le droit de la famille relevait, jusqu’à une époque récente, de la loi nationale. Aussi l’intrusion de l’Europe dans cette matière a d’abord pu surprendre. Aujourd’hui, la surprise a parfois laissé la place à la méfiance, voire à l’hostilité. Mais les sentiments diffèrent selon qu’il s’agisse de l’intrusion du droit de l’Union européenne ou de la légitime importance de la jurisprudence de la Cour européenne des droits de l’homme qui cache parfois la peur de voir s’imposer un « gouvernement des juges »292. Pour l’instant, et tant que le fédéralisme politique et économique ne se sera pas appliqué, chaque Etat membre de l’Union gardera certaines de ses traditions, les rapports entre justice et politique y étant largement déterminés par l’histoire singulière de chacun. En France, ces rapports restent empreints de suspicion. Est-ce un hasard si l’expression « gouvernement des juges », visant les cas d’ingérence du judiciaire dans la sphère du politique (une sorte d’usurpation), a été inventée par un Français293? Il faut convenir de la réelle influence des Cours internationales. En Europe, la Cour européenne des Droits de l’Homme a modifié l’approche des juridictions françaises des litiges familiaux à travers la garantie des droits et libertés. La Cour de Justice de l’Union européenne, quant à elle, est l’un des principaux
291 S. Poillot-Peruzetto et A. Marmisse, Le droit international privé communautaire de la famille, R.A.E. 2001-2002, p.460 292 Expression notamment reprise par Hubert Bosse-Platière dans son article « L’avenir du droit de la famille : quelques conjectures », Informations sociales 8/2005 (n°128), p.38-51 et spéc. p.39. 293 L’expression, en effet, figure pour la première fois dans le livre d’Edouard Lambert Le gouvernement des juges et la lutte contre la législation sociale aux Etats-Unis, Bibliothèque Dalloz, 2005, réimpression de l’édition de 1921. L’auteur montre la façon dont les juges de la Cour suprême des Etats-Unis ont essayé de bloquer les mesures prises par Franklin Delano Roosevelt pour faire face à la crise de 1929. 170 artisans de la construction européenne. Elle assure le respect des traités et des normes dérivées par tous les Etats membres294
.
Section 3 DE L’HOMO ŒCONOMICUS AU CITOYEN EUROPÉEN 247.
L'Union européenne n’a d’abord été sensible qu’aux problématiques de la famille de l’homo œconomicus pour des raisons de subsidiarité. Elle n’avait pas de compétence propre pour agir directement sur le droit de la famille. La définition et la mise en œuvre des politiques de la famille relevaient de la compétence individuelle des Etats membres. En remplaçant l’ex-article 65 du Traité CE par l’article 81 du Traité sur le fonctionnement de l’Union européenne, le Traité de Lisbonne295 a permis à l’Union européenne de désolidariser sa compétence en matière de coopération judiciaire du bon fonctionnement strictement économique du Marché européen. L’Union européenne s’accorde donc toute légitimité pour intervenir en droit international privé de la famille puisque son intervention n’est plus exclusivement soumise à un critère économique. La Charte des droits fondamentaux de l'Union européenne, à laquelle le traité de Lisbonne a donné une force contraignante, évoquait déjà les questions familiales comme le "droit de se marier et droit de fonder une famille" ou "le droit des enfants à entretenir des relations avec ses parents" sans er le respect de la vie privée et familiale et l'interdiction du travail des enfants. Certaines questions relatives à la famille avaient pourtant déjà été directement abordées par les instances européennes. Ce fut notamment le cas de la protection sociale pour laquelle l’Union européenne tente de favoriser les convergences des différents systèmes existants dans les Etats membres. Citons, par exemple, la directive 92/85 CEE296 qui institue, dans l'ensemble des pays membres de l'Union, un congé de maternité de quatorze semaines continues. Les Etats membres sont libres d'en augmenter la durée mais pas de la 294 Créant la surprise, la Cour de justice a émis un avis négatif (CJUE 18 déc. 2014, avis 2/13) sur le projet d’adhésion de l’Union à la Convention européenne des droits de l’homme. 295 Traité de Lisbonne modifiant le Traité sur l’Union européenne et le Traité instituant la Communauté européenne, signé à Lisbonne le 13 décembre 2007. J.O. n° C 306 du 13 décembre 2007. 296 L'Union européenne harmonise, dans le cadre de sa politique d'emploi et de protection sociale, le droit au congé maternité. Ainsi, une directive relative aux travailleuses enceintes de 1992 fixe des mesures minimales visant à promouvoir l’amélioration de la sécurité et de la santé des travailleuses enceintes, accouchées ou allaitantes au travail. J. O. n° L 348 du 28/11/1992 p. 00010008. 171
réduire297. En octobre 2008, la Commission européenne a proposé de porter la durée minimale du congé maternité à dix-huit semaines. La question n'est pas encore tranchée : le Parlement européen est favorable à un congé maternité de 20 semaines (voté en octobre 2010) mais certains pays s’y opposent parmi lesquels la France dont le taux de fécondité est le plus élevé d’Europe et qui s’en verrait financièrement pénalisée. Les tentatives de la Commission européenne pour unifier le délai des congés maternité a encore échoué en 2015. L’exécutif européen a considéré « avoir déployé d’importants efforts [...] pour parvenir à un accord ». Ses efforts étant vains, il a « décidé de retirer sa proposition au vu du manque de progrès réalisés par les colégislateurs »298. « Avec la construction européenne, le droit international privé des Etats membres a vu progressivement son domaine se rétrécir et faire une place croissante au droit international privé de l’Union européenne, constitué d’abord de Conventions entre Etats membres, puis aujourd’hui de règlements nombreux et de quelques dispositions ponctuelles de directives, ainsi que d’une jurisprudence de la Cour de justice de l’Union européenne »299 observe le Professeur Lagarde. Un bref inventaire des textes adoptés permet de percevoir que la place du droit international européen grandit et s’affirme à mesure que diminue et s’efface celle du droit international privé de chaque Etat membre. 248. La notion de citoyen européen a été introduite par le traité de Maastricht de 1992 afin de renforcer la protection des droits et des intérêts des ressortissants de l’Union européenne. La citoyenneté européenne se superpose à la citoyenneté nationale sans la remplacer. Le droit de circuler librement suppose que soit pris en compte les intérêts personnels et familiaux des citoyens européens. La Cour de Justice a retenu cette notion dans le droit international privé en considérant que « le statut 297 Cette directive a été transposée, en droit national, dans les articles du code du travail consacrés à la protection des femmes exposées à des risques sanitaires et travaillant la nuit (Articles 3 à 6 de la directive transposés par l'ordonnance n° 2001-173 du 22 février 2001 et article 7 transposé par la loi n° 2001-397 du 9 mai 2001).Elle a également introduit au niveau communautaire l'interdiction, qui existait déjà en France, de licencier une salariée pendant la période allant du début de sa grossesse au terme de son congé de maternité (Article 10 de la directive de 1992). Enfin, elle a prévu que la suspension du contrat de travail due au congé de maternité donne lieu à une indemnisation qui ne doit pas être inférieure à celle accordée en cas de maladie (Article 11 de la directive de 1992).
298 Communiqué de presse de la Commission européenne du 1er juillet 2015. http://europa.eu/rapid/press-release_IP-15-5287_fr.htm 299 Paul Lagarde « Droit international privé », in European private law, Current status and perspectives, 2011, edited by Reiner Schulze, Hans Schulte-Nölke p.249. 172 de citoyen de l’Union a vocation à être le statut fondamental des ressortissants des Etats membres »300. Cette analyse permit en l’espèce, à un étudiant français, en sa qualité de citoyen européen, de réclamer à l’État belge une prestation sociale. La citoyenneté de l'Union confère donc un droit fondamental et individuel de circuler et de séjourner librement sur le territoire des États membres dont l'exercice s'effectue indépendamment des normes dérivées et notamment des dispositions belges qui autorisaient l’entrée sur son territoire belge à condition que le citoyen européen ne constitue pas une charge pour le système social dans le pays d’accueil. Le statut de citoyen a aussi pesé sur des décisions de droit international privé, notamment dans les affaires Garcia-Avello301 et, surtout Grunkin-Paul 302 (qui portent, l’une et l’autre, sur des questions de nom de famille) qui ont permis à la citoyenneté, question a priori détachée de considérations économiques et donc hors du champ d’application du droit communautaire, de s’imposer comme l’un des éléments primordiaux à la création inévitable d’un droit communautaire de la famille. Il est indispensable pour un citoyen, disposant de la liberté de circulation, de voir son statut obtenu dans un Etat reconnu dans un autre et CJCE, 20 septembre 2001, Grzelczyk c/. Centre public d’aide sociale d’Ottignies-Louvain-laNeuve, Aff. C184/99, point 31 Rec. p. I-6193 ; Europe,
novembre 2001, p
. 5, comm. 316, Y. Gautier ; Rev.
dr. UE, 2001
,
n°
4,
pp. 1008-1010
, A. Alemanno. 301 En l’espèce, la Cour a jugé le 2 octobre 2003 que les articles 12 CE et 17 CE devaient être interprétés en ce sens qu'ils s'opposent à ce que "l'autorité administrative d'un État membre (la Belgique) refuse de donner une suite favorable à une demande de changement de nom pour des enfants mineurs résidant dans cet État et disposant de la double nationalité dudit État et d'un autre État membre (Espagne), alors que cette demande a pour objet que ces enfants puissent porter le nom dont ils seraient titulaires en vertu du droit et de la tradition du second État membre". CJCE, 2 octobre 2003, Garcia Avello,, Arrêt C-148/02, D. 2004. p.1476-1479 note M. Audit, JDI
2004. P
.582
-584, note M. Luby, AJDA, 2004, p. 320-321, J.-M. Bélorgey ; R.C.D.I.P. 2004, p. 192-202, P. Lagarde ; RTDciv. 2004, p.62-63, J. Hauser. 302
Il s’agissait d’un enfant allemand, né au Danemark, de deux parents allemands. Le nom attribué à l’enfant par l’état-civil danois était celui, accolé, de ses père et mère, Monsieur Grunkin et Madame Paul, et ce, conformément au droit danois applicable au patronyme en vertu du droit international privé danois qui soumet le statut personnel à la loi de résidence. Les parents de l'enfant, qui a la nationalité allemande, ont demandé l’inscription de son nom Grunkin-Paul dans le livret de famille en Allemagne. Les autorités allemandes ont refusé cette inscription au motif que le nom patronymique des citoyens allemands est régi par le droit allemand et que celui-ci ne permet pas à un enfant de porter un nom composé. La Cour de justice a donné raison aux parents en considérant que les droits attachés à la qualité de citoyen communautaire seraient remis en cause si l’enfant portait un nom différent dans deux pays avec lesquels il entretenait un lien étroit. La Cour appuie son analyse sur l'article 18 CE, qui établit le droit pour tout citoyen communautaire de circuler et séjourner librement sur le territoire des Etats membres. Elle constate que le fait d’être obligé de porter, dans l’État membre dont une personne possède la nationalité, un nom différent de celui déjà attribué et enregistré dans l’État membre de naissance et de résidence est susceptible d’entraver l’exercice de ce droit. CJCE
,
14
octobre 2008, Grunkin-Paul
, aff. C-353/06, RCDIP,2009, 80 note P. Lagarde ;. Dr. fam. 2009 comm. 50, pp. 46-48, note F. Viangalli ; D. 2009, pp. 845-848, F. Boulanger. 300 173
d’assurer ainsi la permanence de son état. La reconnaissance mutuelle des jugements de divorce et de séparation de corps prévue par le règlement Bruxelles II bis obéit à cette logique. A défaut, un individu divorcé dans un Etat pourrait ne pas être reconnu comme tel dans un autre et s’exposer à être considéré comme bigame s’il décidait de se remarier. Cette reconnaissance mutuelle pourrait s’étendre aux autres relations familiales, qu’il s’agisse de mariage, notamment entre personnes de même sexe, de partenariat, ou de reconnaissance d’enfant, sous l’éventuelle réserve de la contrariété à l’ordre public international de l’État saisi. En revanche, passer par la notion de citoyenneté pour parvenir à l’harmonisation des conflits de lois semble plus hasardeux. La disparité des lois pourrait bien être un frein à la libre circulation des citoyens. Un Anglais pourrait renoncer à passer sa retraite en France s’il ouvre à ses enfants le droit de réclamer une réserve héréditaire ignorée du droit anglais. De même, les lois prohibitives ou restrictives en matière de divorce pourraient dissuader certains de s’installer dans les États peu favorables aux séparations conjugales notamment quand les époux sont issus d'un système de droit confessionnel (tous les pays européens autorisent le divorce (Malte depuis 2011 seulement)). 249. Une nouvelle mesure met en œuvre une coopération renforcée dans le domaine de la loi applicable au divorce. Il s’agit du règlement Rome III qui permet au couple de choisir la loi applicable à leur divorce (même si le choix est limité). Le fait qu’il ait fallu retenir cette coopération renforcée montre bien que l’unanimité n’a pas pu être recueillie sur ce sujet. En effet, même entre les États membres participants à la coopération renforcée, il n'existe pas une équivalence des lois en matière de divorce et de séparation de corps. On saisit alors parfaitement l’intérêt des époux de choisir la loi qu'ils estiment être la plus appropriée à leur relation matrimoniale. Le plus souvent, les époux choisiront une loi en fonction de sa teneur : loi libérale (consacrant un véritable droit fondamental au divorce), loi restrictive (ne permettant le divorce ou la séparation de corps que sous certaines conditions) ou loi prohibitive (n'autorisant que la séparation de corps). Par exemple, parce que leur loi nationale commune ne connaît pas ce divorce, des époux qui résident habituellement en France peuvent choisir la loi française pour divorcer par consentement mutuel303. Le règlement Rome III doit garantir aux citoyens des 303 A. Devers et M. Farge « Le nouveau droit international privé du divorce. À propos du règlement Rome III sur la loi applicable au divorce », JCP, Ed. Gén., n° 26, 25 Juin 2012, 778 174 solutions appropriées en termes de sécurité juridique, de prévisibilité et de souplesse et contribuer à éviter des procédures complexes, longues et pénibles. 250. La citoyenneté européenne, génératrice d'un statut, remet en cause l'influence de la nationalité dans les contentieux au sein de l’Union. Ce fut, on l’a vu, le cas dans les décisions Garcia Avello et Grunkin et Paul et confirmé par l’arrêt Hadadi304 dans lequel la CJCE a fait prévaloir la citoyenneté européenne sur la nationalité interne des ressortissants et nationaux des Etats membres. En l’espèce, il a été décidé que les époux titulaires chacun d’une double nationalité (franco-hongroise) dans l’Union européenne avaient le droit, "selon leur choix", de demander le divorce "devant les tribunaux de l’un ou l’autre des deux Etats concernés". Ce statut est aussi l’une des motivations de l’arrêt Zambrano305 dans lequel la Cour de justice a reconnu un droit au séjour autonome au bénéfice de parents étrangers d’enfants citoyens de l’Union européenne. Jusqu’alors, les droits nés de la citoyenneté étaient liés à la circulation. En l'espèce, les époux Zambrano résidaient, depuis 1999 en Belgique, avec leur enfant, tous étant de nationalité colombienne. Dès son arrivée sur ce territoire, M. Zambrano déposa une demande d'asile qui lui fut refusée. Le couple eut deux nouveaux enfants qui purent acquérir la nationalité belge en application de la loi. En Belgique, le père ne put obtenir de titre de séjour, de permis de travail ni d’allocations de chômage. Ces différents rejets firent l'objet de la procédure au principal devant le tribunal belge qui invita la Cour de Justice à se prononcer sur le cas de cet homme. La cour estima que « le refus de séjour opposé à une personne, ressortissant d'un État tiers, dans l'État membre où résident ses enfants en bas âge, ressortissants dudit État membre, dont elle assume la charge ainsi que le refus d'octroyer à cette personne un permis de travail », aurait privé les enfants, citoyens de l'Union, de la jouissance effective de « l'essentiel des droits conférés par ce statut » (point 43). En d’autres termes, les deux derniers enfants de M. Zambrano étant citoyens de l'Union, ils devaient pouvoir effectivement jouir de l'essentiel des droits attachés à ce statut. Compte tenu de leur bas âge, l'ascendant qui en a la charge devait se voir reconnaitre un droit de séjour et bénéficier d'un permis de travail. La Cour articule son argumentation 304 CJCE, 16 juillet 2009, Hadadi, aff. C-168/08, J.O. n° C 220/11, du 12 sept. 2009 : R.T.D.eur. 2010, pp. 769-774, note P. Lagarde ; AJ fam. 2009, n° 9, p.348, obs. A. Boiché. 305 CJUE, 8 mars 2011, Ruiz Zambrano c
/ Office national de l'emploi, n° C-34/09, D. 2011. 1325, note S. Corneloup ; JCP 2011, act.318,obs. F. Picod ; Europe, 2011, comm. 149, obs. A. Rigaux. 175
autour du concept même de citoyenneté. Après avoir rappelé que d’après l’article 20 TFUE, la citoyenneté est attachée à toute personne ayant la nationalité d'un État membre, elle confirme que la citoyenneté a « vocation à être le statut fondamental des ressortissants des États membres ».Elle s’attache ensuite au caractère « effectif » de l'exercice des droits des citoyens de l’Union, dont la protection se fonde essentiellement sur la citoyenneté. Or si les parents étaient obligés de quitter le territoire belge, les enfants seraient « obligés de quitter le territoire de l'Union pour accompagner leurs parents. De la même manière, si un permis de travail n'est pas octroyé à une telle personne, celle-ci risque de ne pas disposer de ressources nécessaires pour subvenir à ses propres besoins et à ceux de sa famille (...). Dans de telles conditions, lesdits citoyens de l'Union seront, de fait, dans l'impossibilité d'exercer l'essentiel des droits conférés par leur statut de citoyen de l'Union » (point 44). La Cour conclut donc que « l'article 20 TFUE s'oppose à des mesures nationales ayant pour effet de priver les citoyens de l'Union de la jouissance effective de l'essentiel des droits conférés par leur statut de citoyen de l'Union » (point 43). 251. La portée de cet arrêt a cependant été nuancée par l’arrêt Dereci 306 du 15 novembre 2011.La question était de savoir si le droit de l’Union implique l’octroi d’un droit de séjour dérivé à un ressortissant d’un État tiers membre de la famille d’un citoyen de l’Union lorsque ce dernier demeure dans l’État dont il possède la nationalité sans jamais s’être prévalu de son droit à la libre circulation. Faisant référence au critère de l’«essentiel des droits conférés par le statut de citoyen de l’Union», la Cour a précisé qu’un droit de séjour secondaire des ressortissants de pays tiers ne pouvait être en principe reconnu qu’à titre exceptionnel. Elle juge, en son point 68, que « (...) le seul fait qu’il pourrait paraître souhaitable à un ressortissant d’un État membre, pour des raisons d’ordre économique ou afin de maintenir l’unité familiale sur le territoire de l’Union, que des membres de sa famille, qui ne disposent pas de la nationalité d’un État membre, puissent séjourner avec lui sur le territoire de l’Union, ne suffit pas en soi pour considérer que le citoyen de l’Union serait contraint de quitter le territoire de l’Union si un tel droit n’est pas accordé ». La Cour précise ensuite que l’essentiel des droits conférés par le statut de citoyen de l’Union est remis en cause dans « des situations caractérisées par la circonstance que le citoyen de l’Union se voit obligé, en fait, de quitter le 306 CJUE, 15 novembre 2011, Dereci e.a., aff. C-256/11. RTD eur. 2012. 23, étude S. Platon ; ibid. 398, obs. F. Benoit-Rohmer ; AJDA 2012. 306, chron. M.
ubert, E. Broussy et F. Donnat ; D. 2012. 390, chron. O. Boskovic. 176 territoire non seulement de l’Etat membre dont il est ressortissant, mais également de l’Union prise dans son ensemble ». La portée du critère de la privation de la jouissance effective de l’essentiel des droits conférés par le statut de citoyen de l’Union est donc considérablement réduite puisque c’est la contrainte de quitter le territoire de l’Union qui définit ce critère et qui détermine le droit de séjour. La Cour de Justice a laissé ainsi au juge national l’appréciation de la privation de l’essentiel des droits conférés par le statut de citoyen de l’Union. Il vérifiera si le refus d’un droit de séjour, par les autorités nationales, à un membre de la famille d’un citoyen de l’Union européenne obligerait inévitablement ce dernier à quitter le territoire de l’Union européenne. Elle terminait en déclarant que cela ne préjugeait pas «la question de savoir si, sur d’autres bases, notamment en vertu du droit relatif à la protection de la vie familiale, un droit de séjour ne saurait être refusé. Cette question doit cependant être abordée dans le cadre des dispositions relatives à la protection des droits fondamentaux et en fonction de leur applicabilité respective». Le juge national se retrouve donc saisi de la question de savoir si le refus d’accorder un droit de séjour aux requérants est compatible avec l’article 7 de la Charte des droits fondamentaux (si application de la Charte il y a, puisque celleci est subordonnée à la condition que la situation des requérants relève du droit de l’Union européenne).
Section 4 MISE EN PLACE D’INSTRUMENTS DE COOPÉRATION JUDICIAIRE 252.
Pour les familles internationales, il est devenu difficile307 de savoir quels tribunaux sont compétents et quelle législation est applicable à leur situation le et à leur patrimoine. 307
Depuis le Conseil européen de Tampere d’octobre 1999, l’Union européenne s’est fixée pour priorité absolue de créer « un espace de liberté, de sécurité et de justice » en exploitant pleinement les possibilités offertes par le traité d’Amsterdam. Les premiers objectifs visent la réalisation d'un accès plus simple à la justice et le renforcement de la reconnaissance mutuelle des décisions judiciaires. Une première voie visant à unifier les conflits de juridictions en matière familiale était ouverte. Cinq ans plus tard, le Conseil européen de La Haye du 4 et 5 novembre 2004 étend la reconnaissance mutuelle à des domaines nouveaux comme le patrimoine familial, les successions et les testaments. Le 11 décembre 2009, le Conseil européen a confirmé ses orientations dans son Programme de Stockholm en fixant les priorités de travail de l'Union européenne pour les cinq années à venir dans le domaine de la 177 La coopération judiciaire civile s’est imposée comme l’élément-clé de la construction d’un véritable espace judiciaire dans l’Union européenne d’autant que, face aux différentes lois potentiellement applicables à leur situation, il est apparu que certains n’hésitaient pas à aller chercher de l’autre côté de la frontière un droit ou une décision de justice qui leur serait plus favorable308. Les enjeux familiaux n’ont pas échappé longtemps au droit de l’Union ne seraitce que parce qu’ils étaient intimement liés à la libre circulation des personnes, elle-même favorisée par la mobilité des familles, la constitution de familles composées de membres ayant des nationalités différentes et, corrélativement, la multiplication des conflits familiaux transfrontières. L’Union européenne appréhende les relations familiales tant dans leur aspect patrimonial qu’extrapatrimonial. Il faut bien reconnaître que le premier se prête davantage à l’édiction d’une règle de conflit de loi commune parce qu’il est en lien direct avec la dimension économique du grand marché intérieur. Il répond donc à l’exigence de la libre circulation des personnes et des biens. Cependant, il n’est pas exclu du champ des préoccupations nationales comme l’illustre la non-participation du Royaume-Uni, qui ignore la réserve héréditaire, à la règlementation clarifiant juridiquement les successions transfrontalières en Europe. La nouvelle réglementation va faciliter la vie des 450 000 héritiers, légataires et autres parties qui sont concernés chaque année par un montant d'avoirs égal à 123 milliards d’euros.
§ 1. INITIATIVES CONCERNANT LE PATRIMOINE DE LA FAMILLE
253. L’objectif de sécurité juridique et de prévisibilité dans le règlement des conflits familiaux transfrontières ne pouvait être atteint qu’au niveau de l’Union européenne. C’est la raison pour laquelle ses institutions ont adopté des règles de droit international privé en droit patrimonial de la famille, c’est-à-dire tout ce Justice, de la Liberté et de la Sécurité. Ce programme précise que « la reconnaissance mutuelle devrait être étendue à des domaines encore non couverts, mais essentiels pour la vie quotidienne, tels que les successions et les testaments, les régimes matrimoniaux et les conséquences patrimoniales de la séparation des couples » et « le processus d’harmonisation des règles de conflit de loi au niveau de l’Union devrait également se poursuivre dans les domaines où cette harmonisation est nécessaire, tels que la séparation et le divorce » (Programme de Stockholm : une Europe ouverte et sûre qui sert à protéger les citoyens.
.O. de l’Union européenne n° C 115/1 du 4 mai 2010, voir 3.1.2). 308
Le forum shopping ou law shopping, qui engendrent des inégalités et qui portent atteinte à la sécurité juridique, justifient à eux seuls, que l’Union européenne ait souhaité coordonner les systèmes nationaux ne serait-ce que pour protéger les plus faibles, et en particulier les enfants, des disparités de législations. 178 qui touche aux obligations alimentaires (A), au droit des successions (B) et aux régimes matrimoniaux (C). L’uniformisation des règles de conflit de lois peut être vue comme une solution alternative à l’harmonisation complète des droits matériels nationaux, qui semble inaccessible en droit de la famille.
A LES OBLIGATIONS ALIMENTAIRES 254.
En droit interne, l’obligation alimentaire désigne le devoir d’un parent ou d’un allié désignés par la loi de fournir, s’il en a les moyens, de quoi vivre à celui qui est dans le besoin. La jurisprudence de la Cour de justice des communautés européennes a donné une acception plus large de la notion d’obligation alimentaire 309 pour considérer qu’elle concerne les pensions alimentaires, les contributions aux charges du mariage, les prestations compensatoires. Le règlement européen du 22 décembre 2000310 (règlement Bruxelles I) a longtemps réglé la question des obligations alimentaires. Il est remplacé, depuis juin 2011, par le règlement du 18 décembre 2008311 relatif à la compétence, la loi applicable, la reconnaissance et l’exécution des décisions et la coopération en matière d’obligations alimentaires. Il propose une série de mesures visant le recouvrement effectif des créances alimentaires dans des situations transfrontalières. Il permet la suppression de la procédure d’exequatur au bénéfice des créanciers d’aliments. Par ailleurs, le Protocole de La Haye du 23 novembre 2007312 sur le recouvrement international des aliments aux enfants et à d'autres membres de la famille, ratifié le 6 avril 2011 par l'Union européenne, détermine la loi applicable aux obligations alimentaires découlant de relations de famille, de filiation, de mariage ou d'alliance, y compris les relations alimentaires envers un enfant indépendamment de la situation matrimoniale de 309 CJCE (5ème ch.), 27 février 1997, Van den Boogaard, aff. C-220/95, Rec. I, p. 1147, RCDIP, 1998, p. 466, note G. Droz : “Toute prestation [...] destinée à assurer l’entretien d’une personne dans le besoin”. 310 Règlement du Conseil adopté le 22 décembre 2000 et entré en vigueur le 1er mars 2002, JOUE n° L 160/37 du 30 juin 2000 311 Règlement CE n°1/2009 du Conseil relatif à la compétence, la loi applicable, la reconnaissance, et
l’exécution des décisions et la coopération en matière d’obligations
alimentaires, J.O. de l’Union n° L 7/1 du 10 janvier 2009.
Lire le dossier « Le recouvrement des obligations alimentaires dans l’Union », AJ fam. 2009 n° pp 100 et suiv. ; A. Boiché, « Entrée en vigueur du règlement CE ° 4/2009 sur les obligations alimentaires AJ fam. 2011,n°5 p.236 et suiv. 312 Il remplace la Convention de la Haye du 2 octobre 1973 et la Convention de La Haye du 24 octobre 1956 sur la loi applicable aux obligations alimentaires envers les enfants. 179 ses parents. Il a été signé et ratifié par l'Union européenne, mais n'a pas été ratifié par le Danemark ni par le Royaume-Uni (la loi applicable est déterminée par leurs lois nationales respectives). L'article 2 prévoit qu'il est d'application universelle, c'est-à-dire qu'il est applicable même si la loi qu'il désigne est celle d'un État non contractant.
B LES SUCCESSIONS
255. Afin de faciliter le règlement de ces successions internationales dans l’Union Européenne, le règlement du 4 juillet 2012313 « relatif à la compétence, la loi applicable, la reconnaissance et l'exécution des décisions, et l'acceptation et l'exécution des actes authentiques en matière de successions, et à la création d'un certificat successoral européen », a été adopté314. Il offre un cadre simplifié aux personnes qui ont des intérêts privés et patrimoniaux dans au moins deux pays, à l'intérieur comme à l'extérieur de l'Union européenne et aplanit les difficultés dues à l'enchevêtrement de législations d'inspiration parfois fort différente. Entré en vigueur le 16 août 2012, ce règlement ne s'applique qu’aux successions ouvertes315 à compter du 17 août 2015 à l'exception du Royaume Uni, de l'Irlande, du Danemark. Le règlement définit un critère unique pour déterminer à la fois l'autorité compétente et le droit applicable à une succession transfrontalière. L’article 4 du règlement du 4 juillet 2012 prévoit que la juridiction compétente pour statuer sur l'ensemble d'une succession internationale est la juridiction de l'État membre dans lequel le défunt avait sa résidence habituelle au moment de son décès. En outre, l’article 22 du même règlement dispose que la loi applicable à l'ensemble d'une succession est celle de l'État dans lequel le défunt avait sa résidence habituelle au moment de son décès. Ces dispositions vont entrainer la disparition du système de scission (en France et au Royaume-Uni)316.
313 Règlement (UE) n°650/2012 du 4 juillet 2012 (JOUE 27 juillet 2012) M. Revillard « Successions internationales : le règlement du Parlement européen et du Conseil du 4 juillet 2012 en matière de successions », Defrénois 15-30 août 2012, art. 40564, p. 743 et s. 315 Les règles applicables aux successions ouvertes avant le 17 août 2015 ont été posées par la jurisprudence française de droit international privé. 314 316 La loi applicable à la succession détermine qui sont les héritiers et leurs droits respectifs. Lorsque la succession présente un lien avec la France, soit que le défunt y ait eu son dernier domicile ou qu'il y ait possédé des biens, il faut distinguer entre la loi applicable aux biens immobiliers (successions immobilières) et la loi applicable aux autres biens (successions mobilières).La loi applicable à la succession mobilière sera la loi du dernier domicile du défunt. La loi applicable à la succession immobilière sera celle du lieu de situation des biens 180 À travers ces deux articles, le règlement prévoit donc l'application d'un critère unique pour déterminer à la fois la juridiction compétente et le droit applicable à une succession transfrontalière : celui du lieu de résidence habituelle du défunt au moment de son décès. Le règlement européen donne à chacun la possibilité de choisir la loi applicable à sa succession. Il offre trois possibilités. Le principe : application de la loi de l'Etat dans lequel le défunt aura sa résidence habituelle au moment de son décès, même s'il s'agit de la loi d'un Etat non-membre de l'Union européenne. Une loi unique régira l'ensemble de la succession. L’exception : lorsque, à titre exceptionnel, il résulte de l'ensemble des circonstances de la cause que, au moment de son décès, le défunt présentait des liens manifestement plus étroits avec un autre Etat, la loi qui prévaudra sera celle de ce dernier. L’option : L’article 22, § 1, du règlement (UE) n° 650/2012 prévoit qu’ « une personne peut choisir comme loi régissant l’ensemble de sa succession la loi de l’État dont elle possède la nationalité (...) ». L’objectif de cette règle est double. D’une part, « permettre aux citoyens d’organiser à l’avance leur succession en choisissant la loi applicable à leur succession » (règl. (UE) n° 650/2012, préambule, cons. 38). D’autre part, s’ « assurer qu’il existe un lien entre le défunt et la loi choisie (et...) éviter que le choix d’une loi ne soit effectué avec l’intention de frustrer les attentes légitimes des héritiers réservataires » (règl. (UE) n° 650/2012, préambule, cons. 38). Cette option est formulée dans une déclaration revêtant la forme d'une « disposition à cause de mort ». Enfin, le règlement du 4 juillet 2012 crée un certificat successoral européen qui permettra à chacun de faire valoir, sans autres formalités dans l’ensemble de l’Union Européenne, son statut d’héritier, de légataire ou d’administrateur de succession. Ce certificat « produit ses effets dans tous les États membres, sans qu'il soit nécessaire de recourir à aucune procédure » (article 69 du règlement du 4 juillet 2012). immobiliers. Cela a pour conséquence que la succession peut être morcelée en plusieurs "sous-successions".D’autres pays ont retenu le modèle de l'unité (l'Allemagne, le Danemark, l'Espagne, l'Italie, le Portugal, etc.). Une loi unique régit la succession de tous les biens, celle de la nationalité du défunt ou celle de son dernier domicile.
181 C LES
RÉGI
MES MATRIMONIAUX 256
.
La Commission européenne a proposé le 16 mars 2011 une initiative ambitieuse qui apportera davantage de sécurité juridique aux citoyens européens, qu’ils soient en couples mariés ou en partenariats. La proposition de règlement sera applicable aux Etats membres et prévaudra sur les conventions qui régissent les mêmes matières. Deux règlements distincts ont été proposés317: l'un vise les règles applicables aux couples mariés ("régime matrimonial")318 et l'autre concerne les partenariats enregistrés ("régime patrimonial")319. Ces deux propositions de règlements sont relatives à la compétence, la loi applicable, la reconnaissance et l’exécution des décisions. Les deux propositions présentées par la Commission écartent toute discrimination fondée sur le sexe ou sur l'orientation sexuelle. Cela aura notamment pour conséquence qu'un mariage entre personnes de même sexe autorisé dans un État sera traité dans un autre État de la même manière qu'un mariage entre personnes de sexe opposé dans le cadre de la proposition relative aux régimes matrimoniaux. Parallèlement, un partenariat hétérosexuel pourra être enregistré en France dans les mêmes conditions qu'un partenariat entre personnes de même sexe et la proposition relative aux partenariats enregistrés s'appliquera dans les deux cas. Les propositions de la Commission visent principalement à permettre aux couples internationaux mariés de choisir le droit applicable à leurs biens communs en cas de décès ou de divorce, d’établir un ensemble cohérent de règles permettant de déterminer la juridiction compétente et le droit applicable, sur la base d'une hiérarchie de critères de rattachement objectifs et de simplifier la procédure de reconnaissance des jugements, décisions et actes dans l'ensemble de l'Union.
317 M. Revillard, « Propositions de règlements communautaires sur les régimes matrimoniaux et les effets patrimoniaux des partenariats », LPA, 2011, n° 133, p. 3 et suiv. 318 Proposition de règlement du Conseil relatif à la compétence, à la loi applicable, la reconnaissance et l’exécution des décisions en matière de régimes matrimoniaux, COM (2011) 126 final consultable sur le site http://www.europarl.europa.eu 319 Proposition de règlement du Conseil relatif à la compétence, à la loi applicable, la reconnaissance et l’exécution des décisions en matière d’effets patrimoniaux des partenariats enregistrés COM (2011) 127/2. Voir le site de la Commission européenne : http://ec.europa.eu/justice/policies/civil/docs/com_2011_127_fr.pdf
182 § 2. ROME III320, PREMIER INSTRUMENT DE COOPÉRATION RENFORCÉE DE L'UNION EUROPÉENNE 257.
Le Règlement Rome III est le premier instrument de coopération renforcée de l'Union européenne. Il porte sur la loi applicable en matière de divorce et de séparation de corps et est appliqué par 15 États321 membres depuis le 21 juin 2012322. Les autres Etats membres restent libres d'y adhérer et continuent à appliquer leur droit commun tant qu’ils ne l’ont pas fait. Le champ d’application de Rome III ne porte que sur les règles de conflit de lois relatives aux seules causes de divorce et de séparation de corps, à l'exclusion de l'annulation du mariage, de sa validité, de ses conséquences patrimoniales, des obligations alimentaires et de l'autorité parentale. Il fait donc une distinction entre le principe de la désunion (auquel il s'applique) et ses effets (qui lui échappent323). Le règlement a un caractère universel : si la loi applicable n’a pas été désignée, le juge compétent 324 appliquera le règlement quelle que soit la nationalité ou le domicile des époux. Le règlement permet aux époux de choisir la loi applicable à leur divorce ou à leur séparation de corps325. A défaut de choix exprimé par les époux, le divorce 320 Règlement (UE) n° 1259/2010 adopté le 20 décembre 2010, JOEU n° L 343/10 du 29 décembre 2010. Voir; P. Hammje, « Le nouveau règlement (UE) n° 1259/2010 du Conseil du 20 décembre 2010 mettant en œuvre une coopération renforcée dans le domaine de la loi applicable au divorce et à la séparation de corps », RCDIP. 2011, pp. 291-338; G. Lardeux, « Rome III est mort. Vive Rome III! », D. 2011, p. 1835. 321 Allemagne, Autriche, Belgique, Bulgarie, Espagne, France, Hongrie, Italie, Lettonie, Lituanie, Luxembourg, Malte, Portugal, Roumanie et Slovénie 322 L’article 309 du code civil (qui permettait de déterminer si la loi française était applicable selon divers rattachements) est supplanté par le Règlement Rome III sans être abrogé puisqu’il continuera à s'appliquer en Nouvelle Calédonie et ses dépendances, en Polynésie Française, à Wallis et Futuna, à Mayotte, à Saint-Pierre-et-Miquelon, dans les Terres australes et antarctiques françaises qui sont en dehors du champ d'application territorial du droit de l'Union Européenne.
| 32,674
|
b02889ea81e88a1671a6b96ced12515d_21
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,008
|
Visages multiples de la parentalité
|
None
|
French
|
Spoken
| 7,236
| 11,740
|
Face à l’ampleur du phénomène, plusieurs chercheurs, décideurs
politiques et professionnels ont souligné la nécessité de mieux définir la
négligence et de déterminer quelle est la meilleure façon d’intervenir
lorsqu’un enfant se retrouve dans une situation de négligence ou à risque
de négligence (Daniel, 1998 ; Jones et Gupta, 1998 ; Sullivan, 2000 ; Daniel,
2005 ; Bovarnick, 2007 ; Horwath, 2007 ; McSherry, 2007). Au Québec, le
rapport du Comité d’experts sur la révision de la Loi sur la protection de la
jeunesse (2004) recommandait de « réviser en profondeur l’ensemble des
paragraphes se rapportant à la négligence et de mieux circonscrire cette
problématique dans le texte de loi » (p. 61), ce qui a mené à d’importantes
modifications à cet article de la loi. Des efforts ont donc été produits au
cours de la dernière décennie afin de remédier au manque d’attention
qui a précédemment été porté à la négligence à l’endroit des enfants, et
NÉGLIGENCE À L’ENDROIT DES ENFANTS ET MATERNITÉ
365
il existe maintenant une quantité considérable d’écrits portant particulièrement sur ce sujet. Ces écrits s’inscrivent dans différentes perspectives
théoriques, mais les approches développementales et écologiques ont été
particulièrement influentes (Éthier, 1996 ; Brousseau, 2000 ; Brousseau et
Simard, 2000 ; Sullivan, 2000 ; Tanner et Turney, 2003 ; Brousseau et Simard,
2005 ; Howe, 2005 ; Horwath, 2007 ; Lacharité et al., 2007).
Cependant, peu d’auteurs proposent une analyse critique du phénomène et reconnaissent que le problème de la négligence est une construction sociale ouverte à différentes interprétations, qui découlent de processus
politiques et moraux (Parton, 1995 ; Swift, 1995 ; Trocmé, 1996). Pourtant,
Trocmé (1996) souligne que les questions relatives à la définition des
mauvais traitements à l’endroit des enfants ont des répercussions au-delà
des recherches et de leurs considérations méthodologiques, puisqu’elles
influencent l’interprétation de l’ampleur et des causes des problèmes, ainsi
que les stratégies d’intervention et de prévention privilégiées.
Ce chapitre présente un regard critique sur le phénomène de la négligence à l’endroit des enfants, qui s’inscrit dans une perspective féministe
et qui place le genre et les inégalités liées au genre au centre de l’analyse
(Hutchison, 1992 ; Callahan, 1993). De façon générale, il vise à démontrer
que la construction de la négligence qui domine dans les sociétés occidentales a d’importantes répercussions sur les femmes et sur leur expérience
de la maternité. Plus particulièrement, la première partie du chapitre
démontre que les femmes et la maternité sont au centre de la construction
sociale de la négligence et soutient que celle-ci est construite comme étant
un échec des femmes sur le plan de leur maternité. Cette partie souligne
également que certaines femmes sont particulièrement susceptibles d’être
perçues comme étant négligentes, en raison de la position sociale qu’elles
occupent et des contextes dans lesquels elles exercent leur maternité. La
deuxième partie du chapitre porte sur l’intervention et considère trois
stratégies qui sont souvent considérées comme prometteuses en matière
de négligence : le soutien aux familles négligentes, le développement de
programmes de prévention et d’intervention précoce, et l’implication des
hommes au sein de leur famille ainsi que dans les politiques et les pratiques
concernant le bien-être et la protection des enfants. Ces stratégies sont
examinées sous l’angle présenté dans la première partie du chapitre, et
une attention particulière est portée aux répercussions sur les femmes et
sur leur expérience de la maternité.
366
VISAGES MULTIPLES DE LA PARENTALITÉ
1. LES FEMMES ET LA MATERNITÉ AU CENTRE
DE LA CONSTRUCTION SOCIALE DE LA NÉGLIGENCE
À L’ENDROIT DES ENFANTS
Dans les sociétés occidentales, les enfants et la réponse à leurs besoins sont
devenus extrêmement importants (Oakley, 1974 ; Phoenix et Woollett, 1991 ;
Burman, 1994 ; Hays, 1996 ; Harding, 1998), mais la négligence implique
toujours un degré de non-réponse aux besoins des enfants (Éthier, Lacharité
et Gagnier, 1994 ; Lacharité et al., 2007). Jusqu’à présent, les écrits dans ce
domaine ont été particulièrement préoccupés par les conséquences à court
et à long termes sur la santé et le développement des enfants (Iwaniec,
1995 ; Garbarino et Collins, 1999 ; Tanner et Turney, 2003 ; Tyler, Allison et
Winsler, 2006 ; Horwath 2007 ; Stevenson 2007). Un important élément
dans ces écrits est la « transmission intergénérationnelle de la négligence »,
une théorie qui suggère que la négligence affecte la capacité des enfants
à établir des relations interpersonnelles lorsqu’ils sont adultes et affecte
notamment leur capacité à être parents et à prendre soin de leurs propres
enfants (Tyler, Allison et Winsler, 2006 ; Horwath, 2007). De plus, des chercheurs ont récemment soutenu que la négligence affecte le développement
du cerveau et tenté de démontrer que la négligence durant les périodes
prénatale et postnatale peut causer des séquelles sévères et irréversibles
(Glaser, 2000 ; Davies, 2002 ; Horwath, 2007).
La responsabilité envers les enfants est principalement située dans la
sphère « privée » de la famille, et il incombe aux parents de répondre à
leurs besoins (Baines, Evans et Neysmith, 1998). Cette idée est centrale
dans le champ de la négligence, tel qu’illustré dans les écrits de nombreux
auteurs :
Cette problématique se manifeste par une carence significative de
réponse, culturellement et socialement appropriée aux besoins d’un
enfant. Cette carence est attribuable à une difficulté du réseau social
proximal de l’enfant d’agir en conformité avec les normes minimales
de soins reconnues dans la collectivité dont fait partie cet enfant
(Lacharité et al., 2007, p. 310).
Le réseau social proximal des enfants désigne généralement les parents,
certains auteurs utilisent particulièrement les concepts de « négligence
parentale » et de « négligence familiale » (Éthier, Lacharité et Gagnier, 1994 ;
Éthier et Biron, 1998 ; Éthier et Lacharité, 2000). Les définitions légales
mettent aussi l’emphase sur le rôle et sur les responsabilités des parents
(Spencer et Baldwin, 2005). Au Québec, l’un des principes généraux de la
Loi sur la protection de la jeunesse soutient que « la responsabilité d’assumer
NÉGLIGENCE À L’ENDROIT DES ENFANTS ET MATERNITÉ
367
le soin, l’entretien et l’éducation d’un enfant et d’en assurer la surveillance
incombe en premier lieu à ses parents » (Gouvernement du Québec, 2007).
Selon la loi, il y a négligence :
1˚ lorsque les parents d’un enfant ou la personne qui en a la garde ne
répondent pas à ses besoins fondamentaux : i. soit sur le plan physique, en ne lui assurant pas l’essentiel de ses besoins d’ordre alimentaire, vestimentaire, d’hygiène ou de logement compte tenu
de leurs ressources ; ii. soit sur le plan de la santé, en ne lui assurant
pas ou en ne lui permettant pas de recevoir les soins que requiert
sa santé physique ou mentale ; iii. soit sur le plan éducatif, en ne
lui fournissant pas une surveillance ou un encadrement appropriés
ou en ne prenant pas les moyens nécessaires pour assurer sa
scolarisation ;
2˚ lorsqu’il y a un risque sérieux que les parents d’un enfant ou la
personne qui en a la garde ne répondent pas à ses besoins fondamentaux de la manière prévue au sous-paragraphe 1˚ (Gouvernement
du Québec, 2007).
Bien qu’il y ait souvent une présomption que les enfants ont deux
parents qui partagent l’autorité parentale et les responsabilités parentales
(Featherstone, 2004), plusieurs études démontrent que les femmes passent
plus de temps que les hommes à s’occuper des enfants et que la société
s’attend à ce qu’il en soit ainsi (Chase et Rogers, 2001 ; Charles, 2002). Par
exemple, les résultats d’une recherche menée au Canada auprès de
40 femmes et de leur conjoint démontrent que les femmes n’ont pas le
choix d’accepter la responsabilité de leur jeune enfant, tandis que les
hommes peuvent choisir à quel degré ils désirent s’impliquer auprès de lui
(Fox, 1998). Cette organisation du travail est continuellement renforcée
par un discours populaire qui la présente comme étant « naturelle » et
nécessaire pour le bien-être des enfants et des femmes (Oakley, 1974 ; Smart,
1996 ; Chase et Rogers, 2001) et par les théories sur le développement des
enfants qui mettent l’emphase sur la relation mère-enfant (Phoenix et
Woollett, 1991 ; Woollett et Phoenix, 1991 ; Burman, 1994 ; Birns, 1999). De
plus, les attentes en lien avec la maternité sont extrêmement élevées (Burman,
1994 ; Birns, 1999) et Hays (1996) avance que les femmes doivent performer
une maternité « intensive », c’est-à-dire centrée sur les besoins des enfants
et ayant recours à des méthodes qui sont prescrites par des « experts » et
qui exigent beaucoup de travail et des ressources financières.
Les femmes sont donc plus susceptibles que les hommes d’être tenues
responsables si les besoins de leurs enfants ne sont pas comblés de façon
jugée « adéquate », et par conséquent sont plus susceptibles d’être perçues
comme étant négligentes. À cet effet, Denise Turney (2000) propose le
VISAGES MULTIPLES DE LA PARENTALITÉ
368
concept de « féminisation de la négligence » et soutient que le fait que les
femmes soient perçues comme étant responsables des soins à apporter aux
enfants a des implications importantes dans le champ de la négligence.
Cette partie du chapitre examine plus en détail le lien entre la négligence
à l’endroit des enfants et la maternité, et soutient que la négligence est
construite comme un échec des femmes sur le plan de leur maternité. Dans
un deuxième temps, cete partie souligne que certaines femmes sont particulièrement susceptibles d’être perçues comme négligentes, en raison de
la position sociale qu’elles occupent et des contextes dans lesquels elles
exercent leur maternité.
1.1. LA NÉGLIGENCE COMME UN ÉCHEC DES FEMMES SUR LE PLAN
DE LEUR MATERNITÉ
La littérature dans le champ de la négligence a mis l’emphase sur les femmes
et sur leur exercice de la maternité, mais souvent de façon implicite (Éthier,
1996 ; Coohey, 1998 ; Crittenden, 1988, 1999). Cela est évident dans l’étude
réalisée par Polansky et al. (1981) auprès de familles négligentes à Philadelphie
dans les années 1970, qui est l’une des études les plus souvent citées dans
la littérature dans ce domaine. En dépit du fait que le livre présentant les
résultats de cette étude s’intitule Damaged Parents, les chercheurs concentrent
leur analyse sur les caractéristiques individuelles des femmes et décrivent
ces dernières comme étant immatures, apathiques ou impulsives. Ils soutiennent que dans les familles blanches défavorisées économiquement, c’est
la personnalité de la mère qui joue le rôle le plus important dans la
protection et le développement des enfants.
Les interventions en matière de négligence ont aussi tendance à être
centrées sur les femmes, même si la majorité des politiques concernant le
bien-être et la protection des enfants définissent la négligence dans des
termes qui apparaissent neutres sur le plan du genre. Dans une perspective
historique, les écrits de Gordon (1988) et Parker (1995) documentent le
travail des services de protection de l’enfance aux États-Unis et en Angleterre,
et soutiennent que les périodes où la négligence a été la priorité ont été
accompagnées par une tendance à porter une attention soutenue au rôle
des femmes. Gordon (1988) soutient que le fait que l’accent soit placé sur
la négligence intensifie les inégalités liées au genre et à la classe sociale, et
augmente la tendance des services de protection des enfants à blâmer les
femmes. Elle soutient que cela est dû au fait que l’emphase sur la négligence
renforce la responsabilité des femmes envers leurs enfants, sépare les intérêts des femmes et des enfants, et ne tient pas compte de la domination et
de la violence masculine au sein de la famille.
NÉGLIGENCE À L’ENDROIT DES ENFANTS ET MATERNITÉ
369
Des statistiques récentes démontrent que les femmes continuent
d’être plus susceptibles que les hommes d’être perçues comme négligentes.
Par exemple, les données de l’Étude canadienne sur l’incidence des mauvais
traitements à l’endroit des enfants effectuée en 2003 démontrent que les
mères biologiques étaient identifiées comme les responsables des mauvais
traitements dans 83 % des cas où la négligence avait été identifiée, alors
que les pères biologiques avaient été identifiés comme étant les auteurs
des mauvais traitements dans 36 % des cas (Trocmé et al., 2005). Des tendances similaires ont été observées à travers l’Amérique du Nord et le
Royaume-Uni.
Deux études qualitatives permettent de comprendre davantage les
processus par lesquels l’accent est placé sur les femmes dans les cas de
négligence. Les résultats de la recherche ethnographique réalisée par
Scourfield (2003) dans une agence de protection de l’enfance au RoyaumeUni montrent comment les interventions dans les situations de négligence
mettent l’emphase sur les femmes et comment toutes les dimensions de
leur exercice de la maternité font l’objet d’une attention soutenue. Les
résultats de cette étude suggèrent que cela n’est pas le fait d’une décision
consciente ou intentionnelle de la part des travailleurs sociaux, mais plutôt
d’un processus par lequel ils en viennent à ne mentionner que les femmes
lorsqu’ils parlent de négligence. De plus, Scourfield (2003) soutient que
les travailleurs sociaux ont l’impression qu’ils doivent être pragmatiques et
réalistes lorsqu’ils identifient les membres de la famille auprès de qui ils
peuvent intervenir et, puisque les hommes ont tendance à s’absenter de
leur famille, il est souvent plus facile d’intervenir auprès des femmes.
Dans une recherche réalisée au Canada, Karen Swift (1995) examine
les dossiers des services de protection des enfants et démontre que ceux-ci
se centrent sur les femmes et mentionnent rarement les hommes, particulièrement lorsqu’ils n’habitent pas avec les enfants. Ainsi, elle avance que
les interventions se concentrent sur les femmes et sur leurs responsabilités
en tant que mères parce que les soins à apporter aux enfants sont perçus
comme étant une responsabilité maternelle. Swift (1995) souligne que,
même si ce sont les besoins des enfants qui justifient l’intervention des
services de protection, ce sont les capacités des femmes qui sont mises en
cause et qui sont placées au centre des interventions.
Il est donc clair que les femmes et la maternité sont au centre de la
construction sociale de la négligence, et un certain nombre d’auteurs reconnaissent que le genre est une « variable » qui doit être considérée (Horwarth,
2007 ; Stevenson, 2007). Par exemple, Garbarino et Collins (1999) avancent
que le fait que les études se concentrent sur les femmes constitue une limite
de la recherche dans le champ de la négligence. D’après eux, cela peut
370
VISAGES MULTIPLES DE LA PARENTALITÉ
être dû au fait que plusieurs femmes sont monoparentales ou qu’elles sont
la principale personne qui prend soin des enfants, mais que les conclusions
pourraient être différentes si les études tenaient compte du fait que des
hommes « abandonnent » leurs enfants, sur le plan physique, financier ou
psychologique.
Cependant, de façon générale, les écrits et les interventions dans le
domaine de la négligence portent une attention limitée au genre et au fait
que les concepts de « parents » et de « parentalité » servent fréquemment à
désigner les mères et la maternité (Sullivan, 2000 ; Daniel et Taylor, 2006 ;
Tanner et Turney, 2003). Cela est d’autant plus problématique que l’utilisation des termes « parents » et « parentalité » donne l’illusion que l’approche
utilisée porte une attention égale aux femmes et aux hommes (Swift, 1995 ;
Daniel et Taylor, 2006) et que l’accent est placé sur les femmes simplement
parce que ce sont elles qui causent les mauvais traitements à l’endroit de
leurs enfants (Swift, 1995).
Comme la société s’attend à ce que les femmes s’occupent « naturellement » de leurs enfants et que les attentes à cet égard sont extrêmement
élevées (Hays, 1996 ; Chase et Rogers, 2001), la négligence risque d’être
représentée comme un échec des femmes sur le plan de leur maternité et
celles-ci sont susceptibles d’être perçues comme « déviantes » ou « anormales ». D’ailleurs, Turney (2000) souligne que dans notre société, il est
presque impensable qu’une femme puisse ne pas vouloir ou ne pas être
en mesure de prendre soin de ses enfants, sans automatiquement remettre
en question son droit au titre de mère. Cette idée est exacerbée par l’absence
d’une distinction entre le travail effectué par les femmes pour répondre
aux besoins de leurs enfants et le lien affectif qu’elles peuvent avoir avec
ces derniers, ce qui laisse supposer que les femmes qui ne sont pas en
mesure de réaliser ce travail d’une façon jugée « adéquate » ne se préoccupent pas du bien-être de leurs enfants. Par exemple, Lacharité et Robidoux
(1996) avancent que la négligence « se caractériserait par une réaction de
démission et un manque d’investissement affectif de la part du parent se
traduisant par une absence de gestes appropriés envers l’enfant » (p. 71).
1.2. L’IMPORTANCE DE LA POSITION SOCIALE DES FEMMES
ET DES CONTEXTES DANS LESQUELS ELLES EXERCENT
LEUR MATERNITÉ
Afin de mieux cerner le phénomène de la négligence à l’endroit des enfants
et ses répercussions sur les femmes et sur leur expérience de la maternité,
il convient de porter une plus grande attention à la position sociale occupée
par les femmes et aux contextes dans lesquels elles exercent leur maternité.
NÉGLIGENCE À L’ENDROIT DES ENFANTS ET MATERNITÉ
371
Ces éléments sont importants, puisqu’ils peuvent influencer les besoins des
enfants et les soins que les femmes sont en mesure de leur apporter, mais
aussi la façon dont la société perçoit ces femmes et leur maternité.
Dans les sociétés occidentales, la construction dominante de la maternité est calquée sur la situation des femmes blanches de la classe moyenne
(Phoenix et Woollett, 1991 ; Burman, 1994 ; Glenn, 1994 ; Hays, 1996), ce
qui signifie que les croyances et les pratiques en lien avec la maternité
propres à certains groupes ethniques minoritaires ou à la classe ouvrière
sont demeurées largement invisibles ou ont été marginalisées (Phoenix et
Woollett, 1991 ; Glenn, 1994 ; Weingarten et al., 1998 ; Gillies, 2007). À cet
effet, Gillies (2007) propose l’idée que les femmes de la classe ouvrière
sont continuellement perçues comme étant de « mauvaises » mères : elles
sont décrites comme des personnes irresponsables, immatures, immorales
et qui constituent une menace à la sécurité et à la stabilité de la société.
Les mères adolescentes et les mères monoparentales sont souvent définies
de façon similaire (Wallbank, 2001).
Ces femmes sont donc particulièrement susceptibles d’être perçues
comme étant négligentes ou à risque de négliger leurs enfants. Dans une
recension critique des études sur les services de protection des enfants
auprès des familles de groupes ethniques minoritaires, Singh (1999) soutient
que l’un des résultats les plus inquiétants qui émerge de ces recherches est
le fait que ces familles font plus souvent l’objet d’une évaluation pour
négligence que les familles blanches. En effet, les résultats d’une étude
réalisée aux États-Unis révèlent que les enfants de familles afro-américaines
font plus souvent l’objet d’un signalement pour négligence que les familles
blanches, et les services de protection sont moins susceptibles de mettre
en place des services pour soutenir ces familles avant que le problème ne
devienne chronique (Saunders, Nelson et Landsman, 1993). Le lien entre
le fait de vivre dans un contexte de pauvreté et la négligence à l’endroit
des enfants a également été documenté, et une large proportion des femmes
qui sont accusées de négliger leurs enfants vivent dans des conditions socioéconomiques défavorisées (Nelson, Saunders et Landsman, 1993 ; PalacioQuintin et Éthier, 1993 ; Garbarino et Collins, 1999 ; Stevenson, 2007).
Cependant, de telles données sont souvent ignorées. En effet, Trocmé
(1996) souligne que, en dépit de la popularité de l’approche écologique,
les chercheurs ont tendance à concentrer leurs efforts sur l’enfant, l’individu
et la famille :
Nous avons non seulement exclu des niveaux d’analyse importants,
mais les études sur les enfants maltraités effacent systématiquement
les effets de la pauvreté en utilisant des devis de recherche qui utilisent des groupes de comparaison d’enfants pauvres. De cette façon,
372
VISAGES MULTIPLES DE LA PARENTALITÉ
les données mettent l’accent sur les effets néfastes de la négligence
tout en ignorant les effets souvent bien plus dramatiques de la
pauvreté (p. 24).
Par ailleurs, lorsque le lien entre la négligence et le fait de vivre dans
un contexte de marginalité et de pauvreté est établi, c’est souvent pour
renforcer la stigmatisation de ces femmes en soutenant que ce sont leurs
caractéristiques individuelles qui causent à la fois la pauvreté et la négligence
(Crittenden, 1999 ; McSherry, 2004). Par exemple, Crittenden (1999) soutient que les problèmes de pauvreté et de négligence sont causés par des
difficultés dans l’analyse des informations et que, conséquemment, ces
parents risquent de continuer à être négligents, indépendamment de leur
accès à des ressources financières.
L’absence d’attention portée à la réalité de ces groupes de femmes
est généralement justifiée par une vision universaliste des besoins des
enfants. Par exemple, Stevenson (2007) soutient que les débats entourant
l’importance relative des facteurs culturels dans les cas de négligence ne
devraient pas détourner notre attention du fait qu’il existe un consensus
entre les différentes cultures quant à ce dont les enfants ont besoin pour
bénéficier d’un développement sain. Les interventions en matière de négligence servent ainsi à imposer à une population diversifiée des normes
uniformes concernant les soins à apporter aux enfants et à maintenir l’ordre
social établi, et renforcent par conséquent les inégalités liées au genre, à
la classe sociale et à l’origine ethnique (Thorpe, 1994 ; Swift, 1995). À cet
effet, Trocmé (1996) soutient que les femmes qui sont la cible d’interventions en raison de négligence ne sont généralement pas en mesure de
remettre en question les stratégies d’intervention, ce qui fait qu’il est souvent
bien plus facile de tenir ces femmes responsables que de cibler la pauvreté
et remettre en question les structures socioéconomiques.
Considérant ces éléments, il apparaît crucial de porter une plus grande
attention au fait que les contextes de marginalité et de pauvreté dans lesquels vivent certaines femmes rendent leur exercice de la maternité plus
difficile (Weingarten et al., 1998 ; Quéniart, 2001 ; René et al., 2001 ; McIntyre,
Officer et Robinson, 2003 ; Hooper et al., 2007). Par exemple, les résultats
d’une étude complétée récemment auprès de familles de divers groupes
ethniques au Royaume-Uni démontrent que les parents qui vivent dans un
contexte de pauvreté perçoivent peu d’occasions d’améliorer leurs conditions de vie et se sentent souvent coupables de ne pas être en mesure de
répondre à leurs propres besoins et à ceux de leurs enfants (Hooper et al.,
2007). De plus, Quéniart (2001) souligne que les mères adolescentes sont
particulièrement susceptibles d’exercer leur maternité dans des conditions
NÉGLIGENCE À L’ENDROIT DES ENFANTS ET MATERNITÉ
373
de pauvreté et d’isolement social et que ces conditions « ne favorisent
nullement l’apprentissage de leur nouveau rôle et le développement de
leur autonomie affective et financière » (p. 51).
Il paraît également important de considérer la contribution des
facteurs culturels aux situations de négligence et de reconnaître que le fait
d’accommoder la diversité culturelle ne va pas nécessairement à l’encontre
de la volonté de prioriser la sécurité et le bien-être des enfants. À cet effet,
une approche qui serait basée sur la diversité s’avère plus appropriée qu’une
approche qui serait basée sur les « déficits » de ces familles (Korbin et
Spilsbury, 1999 ; Singh, 1999).
Finalement, la prise en compte des processus par lesquels les contextes
sociaux et les conditions sociales affectent les besoins des enfants et la façon
dont les femmes sont en mesure de prendre soin de ces derniers ouvre la
voie à une conceptualisation de la « négligence sociale » (Nelson, Saunders
et Landsman, 1993 ; Garbarino et Collins, 1999 ; Spencer et Baldwin, 2005).
En effet, Spencer et Baldwin (2005) soulignent que la société a aussi une
responsabilité par rapport aux enfants et proposent différents mécanismes
par lesquels la société peut négliger ses enfants. D’abord, la société peut
compromettre la sécurité et le bien-être des enfants en ne leur fournissant
pas d’hébergement ou des services de santé ou d’éducation adéquats, ou
en ne respectant pas leurs droits. La société peut aussi négliger ses enfants
de façon indirecte lorsque des politiques économiques et des attitudes
sociétales (par exemple, la reconnaissance des droits des enfants) affectent
de façon négative les soins qui sont apportés aux enfants.
2. INTERVENTIONS EN MATIÈRE DE NÉGLIGENCE
À L’ENDROIT DES ENFANTS
Même si des efforts ont été déployés afin de remédier au manque d’attention
porté au problème de la négligence à l’endroit des enfants, peu de
recherches ont porté sur les interventions en matière de négligence
(Palacio-Quintin et al., 2000 ; Sullivan, 2000). Il est donc difficile de déterminer quelles seraient les stratégies d’intervention à privilégier. Cette
partie du chapitre considère néanmoins trois stratégies d’intervention qui
sont souvent considérées comme prometteuses en matière de négligence
à l’endroit des enfants : le soutien aux familles négligentes, le développement de programmes de prévention et d’intervention précoce, et l’implication des hommes au sein de leur famille et dans les interventions
professionnelles.
374
VISAGES MULTIPLES DE LA PARENTALITÉ
2.1. SOUTIEN AUX FAMILLES NÉGLIGENTES
Depuis les années 1970, les politiques et les pratiques concernant le bienêtre et la protection des enfants en Amérique du Nord et au Royaume-Uni
ont été dominées par une approche socio-légale, qui repose sur une définition étroite du concept de protection et se concentre sur la documentation des incidents de mauvais traitements et sur la gestion du risque
(Callahan, 1993 ; Parton, 1996 ; Krane et Davies, 2000 ; Parton, 2006 ;
Horwath, 2007). Compte tenu de la nature particulière du phénomène
de la négligence, cette approche pose des difficultés particulières pour
l’intervention dans ce domaine (Jones et Gupta, 1998 ; Stevenson, 1998 ;
Stone, 1998). Par exemple, les résultats de l’étude réalisée par Scourfield
(2003) dans une agence de protection de l’enfance au Royaume-Uni
démontrent que la documentation des faits est un aspect important des
interventions dans les situations de négligence et que c’est souvent l’apparence physique des enfants qui sert d’indicateur de la qualité des soins
maternels.
Face aux difficultés que pose l’approche socio-légale, plusieurs auteurs
privilégient plutôt des interventions centrées sur le soutien aux familles
négligentes. Cette approche implique un travail à long terme en collaboration avec différentes organisations de services et avec les parents (PalacioQuintin et Éthier, 1993 ; Browne et Lynch, 1998 ; Palacio-Quintin et al.,
2000 ; Horwath, 2007 ; Lacharité et al., 2007). Selon Palacio-Quintin et Éthier
(1993) :
Du point de vue de l’intervention, il nous semble important de
traduire la situation de négligence selon les besoins du parent, de
l’enfant et de toute la famille. Les besoins sont cependant nombreux
et ne peuvent être comblés à court terme. C’est dans cette perspective que tous les efforts doivent être déployés en vue d’une concertation entre la famille et toutes les ressources sociales mises à la
disposition de l’enfant (p. 161).
Cependant, une approche centrée sur le soutien aux familles
négligentes peut être difficile à mettre en place dans un contexte qui met
l’accent sur la protection des enfants, puisque ces deux approches reposent
sur des visions et des principes différents, et souvent contradictoires. Tandis
qu’une approche favorisant le soutien donne du pouvoir aux familles et
offre des services sur une base volontaire et consensuelle, l’approche qui
met l’accent sur la protection donne davantage de pouvoir aux professionnels et ces derniers peuvent imposer les modalités d’intervention qu’ils
jugent nécessaires. En effet, Parton (2006) soutient que cela a constitué un
obstacle considérable dans le développement d’une approche intégrée des
NÉGLIGENCE À L’ENDROIT DES ENFANTS ET MATERNITÉ
375
services à la famille au Royaume-Uni, où on constate une intention de
s’éloigner d’une conception étroite de la protection des enfants depuis
l’arrivée au pouvoir du gouvernement travailliste en 1997.
De plus, les concepts de soutien et de collaboration avec les parents
sont ouverts à différentes interprétations (Bain, soumis) et, dans les faits,
les interventions visent souvent à modifier les comportements des femmes.
Par exemple, White (1996) souligne qu’en raison de la préoccupation
constante pour la maternité et la façon dont les femmes prennent soin de
leurs enfants, les interventions mettent généralement l’accent sur les changements dans les comportements des femmes, plutôt que d’offrir aux
femmes des services d’accompagnement et de répit. Les obstacles dans le
développement d’une collaboration avec les parents sont exacerbés par le
fait que les femmes accusées de négligence sont souvent perçues comme
ayant des problèmes personnels et comme étant « déviantes » ou « anormales ». À cet égard, Jones et Gupta (1998) et Stevenson (1998) soutiennent
que la collaboration avec les parents est souvent problématique dans les
cas de négligence, parce qu’il est difficile pour les professionnels de soutenir
les parents tout en maintenant la priorité sur la protection et le bien-être
des enfants. Selon ces auteurs, les professionnels risquent de s’identifier
outre mesure à la situation des parents, de centrer les interventions sur les
besoins de ces derniers et de perdre de vue les besoins des enfants.
2.2. PRÉVENTION ET INTERVENTION PRÉCOCE
Au cours des dernières décennies, les programmes de prévention et
d’intervention précoce ont fait l’objet d’une attention considérable en
Amérique du Nord et au Royaume-Uni (Blanchet, 2001 ; Parton, 2006).
Dans l’ensemble, les programmes de prévention ont souvent comme objectif
la réduction de problèmes tels que la délinquance, la criminalité et l’exclusion sociale (Little, Axford et Morpeth, 2003 ; Pugh, 2003), mais la prévention de la négligence constitue souvent un objectif à plus court terme.
À cet effet, Parton (2006) soutient qu’une proportion importante des services à la petite enfance en Angleterre visent la réduction de la criminalité,
mais ces services reposent aussi sur l’idée qu’ils vont améliorer le fonctionnement des familles, réduire les mauvais traitements à l’endroit des enfants
et améliorer le développement physique, intellectuel et émotionnel des
enfants. Certains programmes visent plus particulièrement la prévention
de la négligence.
La majorité des programmes de prévention et d’intervention précoce
se sont développés dans une perspective développementale et écologique,
qui met l’emphase sur l’identification de facteurs de risque et de protection
376
VISAGES MULTIPLES DE LA PARENTALITÉ
(Éthier et Lacharité, 2000). Cependant, il demeure difficile de déterminer
quels sont les facteurs qui créent les problèmes (Parton, 2006), et ce sont
souvent les déficits maternels qui sont mis en cause. Ces programmes ont
donc tendance à mettre l’accent sur les changements dans la façon dont
les femmes exercent leur maternité (Trocmé, 1996 ; Clarke, 2006 ; Lister,
2006). À cet égard, Trocmé (1996) souligne que même si le modèle
écologique-transactionnel fait appel à des stratégies d’intervention sur divers
plans, la majorité des efforts d’intervention ciblent les parents – et plus
particulièrement les mères – et portent une attention limitée aux conditions
de vie des familles.
De plus, les politiques et les pratiques qui mettent l’emphase sur la
prévention et les interventions précoces peuvent aussi constituer un système
de surveillance, particulièrement dans les secteurs pauvres et marginalisés
de la société qui sont perçus comme étant davantage à risque de négligence.
Ces femmes et leur exercice de la maternité sont donc constamment sous
observation, ce qui en soi les rend plus susceptibles d’être accusées de
négligence à l’endroit de leurs enfants. Par exemple, les résultats d’une
récente évaluation du programme Sure Start en Angleterre révèlent une
augmentation du nombre d’évaluations par les services de protection de
l’enfance dans les territoires desservis par le programme (Broadhurst, Mason
et Grover, 2007). Ces résultats amènent les auteurs de l’étude à conclure
que, bien que ce programme soit régulièrement cité comme une illustration
de la volonté du gouvernement de combattre la pauvreté et d’améliorer
les conditions de vie des enfants, il est en fait basé sur une vision particulière
de l’inclusion sociale, qui mène à la surveillance et à la régulation des
familles pauvres, plutôt que d’intervenir sur les facteurs qui causent cette
pauvreté. Parton (2006) soutient que la tendance à « surveiller » les comportements des enfants et des parents, particulièrement les mères, est croissante et est devenue le principal élément caractérisant le développement
d’un système intégré de services à l’enfance en Angleterre.
2.3. IMPLICATION DES HOMMES AU SEIN DE LEUR FAMILLE
ET DANS LES POLITIQUES ET LES PRATIQUES CONCERNANT
LE BIEN-ÊTRE DES ENFANTS
Tel que mentionné précédemment, les pratiques concernant le bien-être
et la protection des enfants ont mis l’accent sur les femmes et ont largement
ignoré le rôle des hommes (Scourfield, 2000, 2003 ; Daniel et Taylor, 2006).
Au cours de la dernière décennie, plusieurs chercheurs, décideurs politiques
et professionnels ont néanmoins porté un intérêt croissant à l’implication
des hommes au sein de leur famille et dans les services (Ashley et al., 2006 ;
Featherstone, Rivett et Scourfield, 2007). Cet intérêt est souvent justifié par
NÉGLIGENCE À L’ENDROIT DES ENFANTS ET MATERNITÉ
377
le potentiel pour les hommes d’être impliqués de façon positive dans la vie
de leurs enfants, contribuant à répondre aux besoins des enfants et
diminuant le risque de négligence. À cet effet, Palacio-Quintin et Éthier
(1993) soutiennent qu’« il est essentiel de convaincre les intervenants du
fait que les deux parents sont également responsables de leurs enfants, et
que l’implication des deux dans les mesures de protection est une meilleure
garantie de succès » (p. 161).
Cependant, peu d’études ont porté sur le rôle des hommes dans les
familles négligentes ; les éléments probants fournis par ces études sont
limités et parfois contradictoires (Daniel et Taylor, 2006). Il est clair, néanmoins, que les hommes ne constituent pas toujours une influence positive
dans la vie de ces femmes et de ces enfants. Par exemple, les résultats d’une
étude menée au Québec par Lacharité, Éthier et Couture (1996) démontrent
que les hommes dans les familles négligentes sont plus souvent perçus par
leur partenaire comme étant moins adéquats, moins enclins à offrir du
soutien et plus violents. L’implication des hommes n’est donc pas toujours
une stratégie à privilégier et celle-ci peut même compromettre le bien-être
et la sécurité des femmes et des enfants, si elle ne repose pas sur une
évaluation poussée de la situation familiale.
Finalement, une plus grande implication des hommes devrait
s’accompagner d’une remise en question plus globale des attentes placées
sur les femmes et sur les hommes en lien avec la parentalité, afin d’éviter
la reproduction d’un système à deux poids, deux mesures (Turney, 2000).
Par exemple, Scourfield et Drakeford (2002) soulignent que le gouvernement travailliste britannique a été novateur en développant des politiques
sociales s’adressant directement aux hommes et à leur rôle de père. Cependant, les auteurs soutiennent que ces politiques posent un regard optimiste
sur le rôle des hommes et un regard pessimiste sur le rôle des femmes au
sein de leur famille. Tandis qu’un regard optimiste amène des mesures
d’encouragement et de soutien, un regard pessimiste est plus susceptible
de mener à l’adoption des mesures coercitives.
CONCLUSION
Ce chapitre a posé un regard féministe sur le phénomène de la négligence
à l’endroit des enfants et a démontré que la construction de la négligence
qui domine dans les sociétés occidentales a d’importantes répercussions
sur les femmes et sur leur expérience de la maternité. Ce chapitre a réaffirmé la nécessité de placer le genre au centre d’une compréhension de la
négligence à l’endroit des enfants et de développer une perspective
378
VISAGES MULTIPLES DE LA PARENTALITÉ
théorique qui permet de remettre en question les théories et les pratiques
qui ignorent le genre et les inégalités de pouvoir qui y sont associées
(Callahan, 1993 ; Hutchison, 1992).
L’adoption ou l’intégration d’une perspective féministe dans le champ
de la négligence ne suppose pas que les femmes ne devraient pas avoir de
responsabilités par rapport aux soins à apporter à leurs enfants, mais elle
soutient qu’il est nécessaire d’amorcer une réflexion critique et profonde
concernant l’organisation des responsabilités et du travail en lien avec les
soins aux enfants. Il semble que, sans le développement d’une telle réflexion,
les nouvelles approches et stratégies d’interventions risquent de perpétuer
les répercussions de la construction de la négligence sur les femmes et sur
leur expérience de la maternité.
BIBLIOGRAPHIE
Ashley, C. et al. (2006). Fathers Matter : Research Findings on Fathers and Their
Involvement with Social Care Services, Londres, Family Rights Group.
Association des centres jeunesse du Québec (2007). Bilan des directeurs de
la protection de la jeunesse, Québec, Association des centres jeunesse du
Québec.
Bain, K. (soumis). « Modernising children’s services : Partnership and participation in policy and practice », dans J. Harris et V. White (dir.), Modernising
Social Work, Bristol, Policy Press.
Baines, C.T., P.M. Evans et S.M. Neysmith (1998). « Women’s caring : Work
expanding, state contracting », dans C.T. Baines, P.M. Evans et S.M. Neysmith
(dir.), Women’s Caring : Feminist Perspectives on Social Welfare, Toronto, Oxford
University Press, p. 3-22.
Birns, B. (1999). « Attachment theory revisited : Challenging conceptual and
methodological sacred cows », Feminism and Psychology, vol. 9, n o 1,
p. 10-21.
Blanchard, D. (2003). « La négligence des enfants : des impacts sociaux importants », Rubrique de l’Observatoire, Montréal, GRAVE-ARDEC, mars, rubrique
no 3.
Blanchet, L. (2001). « La prévention des problèmes psychosociaux et la
prévention de la santé et du bien-être », dans H. Dorvil et R. Mayer (dir.),
Problèmes sociaux, tome I, Théories et méthodologies, Québec, Presses de l’Université du Québec, p. 155-174.
Bovarnick, S. (2007). Child Neglect : Child Protection Research Briefing, Londres,
National Society for the Prevention of Cruelty to Children.
Broadhurst, K., C. Mason et C. Grover (2007). « Sure Start and the “reauthorization” of Section 47 child protection practices », Critical Social Policy,
vol. 27, no 4, p. 443-461.
NÉGLIGENCE À L’ENDROIT DES ENFANTS ET MATERNITÉ
379
Brousseau, M. (2000). La perception du fonctionnement familial de parents négligents
et non négligents et les facteurs familiaux, parentaux et environnementaux associés,
Québec, Laboratoire de recherche, École de service social, Université
Laval.
Brousseau, M. et M. Simard (2000). « Fonctionnement familial et négligence
des enfants », dans M. Simard et J. Alary (dir.), Comprendre la famille : Actes du
5e symposium québécois de recherche sur la famille, Québec, Presses de l’Université
du Québec, p. 141-162.
Brousseau, M. et M. Simard (2005). « Le fonctionnement familial : qu’en disent
des parents et des praticiens sociaux », Intervention, no 122, p. 60-69.
Browne, K.D. et M.A. Lynch (1998). « The challenge of child neglect », Child
Abuse Review, vol. 7, p. 73-76.
Burman, E. (1994). Deconstructing Developmental Psychology, Londres,
Routledge.
Callahan, M. (1993). « Feminist approaches : Women recreate child welfare »,
dans B. Wharf (dir.), Rethinking Child Welfare in Canada, Don Mills, Oxford
University Press, p. 172-209.
Chamberland, C. (1992). « La négligence faite aux enfants : un problème social
à contre », présentation au Colloque régional enfance-famille, Alma, octobre.
Charles, N. (2002). Gender in Modern Britain, Oxford, Oxford University
Press.
Chase, S.E. et M.F. Rogers (2001). Mothers and Children : Feminist Analyses and
Personal Narratives, New Brunswick, Rutgers University Press.
Clarke, K. (2006). « Childhood, parenting and early intervention : A critical
examination of the Sure Start national programme », Critical Social Policy,
vol. 26, no 4, p. 699-721.
Comité d’experts sur la révision de la LOI SUR LA PROTECTION DE LA JEUNESSE
(2004). La protection des enfants au Québec : une responsabilité à mieux partager,
Québec, Ministère de la Santé et des Services sociaux.
Coohey, C. (1998). « Home alone and other inadequately supervised children »,
Child Welfare, vol. 77, no 3, p. 291-310.
Crittenden, P.M. (1988). « Distorted patterns of relationship in maltreating
families : The role of the internal representations models », Journal of Infant
and Reproductive Psychology, vol. 6, no 3, p.183-199.
Crittenden, P.M. (1999). « Child neglect : Causes and contributors », dans
H. Dubowitz (dir.), Neglected Children : Research, Practice, and Policy, Thousand
Oaks, Sage, p. 47-68.
Daniel, B. (1998). « A picture of powerlessness : An exploration of child neglect
and ways in which social workers and parents can be empowered towards
efficacy », International Journal of Child and Family Welfare, vol. 3, no 3,
p. 269-285.
Daniel, B. (2005). « Introduction to issues for health and social care in neglect »,
dans J. Taylor et B. Daniel (dir.), Child Neglect : Practice Issues for Health and
Social Care, Londres, Jessica Kingsley, p. 11-25.
380
VISAGES MULTIPLES DE LA PARENTALITÉ
Daniel, B.M et J. Taylor (2006). « Gender and child neglect : Theory, research
and policy », Critical Social Policy, vol. 26, no 2, p. 426-439.
Davies, M. (2002). « A few thoughts about the mind, the brain, and a child
with early deprivation », Journal of Analytical Psychology, vol. 47, no 3,
p. 421-435.
Department for Children, Schools and Families (2007). Referrals, Assessments
and Children and Young People Who Are the Subject of a Child Protection Plan or
Are on Child Protection Registers, England – Year Ending 31 March 2007, Londres,
Department for Children, Schools and Families.
Dubowitz, H. (2007). « Understanding and addressing the “neglect of neglect” :
Digging into the molehill », Child Abuse and Neglect, vol. 31, no 6, p. 603-606.
Éthier, L.S. (1996). « Facteurs de développement reliés au stress des mères
négligentes ou violentes », dans R. Tessier, G. Tarabulsy et L.S. Éthier (dir.),
Dimensions de la maltraitance, Québec, Presses de l’Université du Québec,
p. 7-24.
Éthier, L.S. et C. Biron (1998). « Comprendre, évaluer, intervenir et réussir »,
dans L.S. Éthier et al. (dir.), Réussir en négligence, Trois-Rivières, Groupe de
recherche en développement de l’enfant et de la famille, p. 8-22.
Éthier, L.S. et C. Lacharité (2000). « La prévention de la négligence et de
la violence envers les enfants », dans F. Vitaro et C. Gagnon (dir.), Prévention
des problèmes d’adaptation chez les enfants et les adolescents, tome I, Les problèmes
internalisés, Québec, Presses de l’Université du Québec, p. 389-428.
Éthier, L.S., C. Lacharité et J.P. Gagnier (1994). « Prévenir la négligence
parentale », Revue québécoise de psychologie, vol. 15, no 3, p. 67-86.
Featherstone, B. (2004). Family Life and Family Support : A Feminist Analysis,
Houndmills, Palgrave Macmillan.
Featherstone, B., M. Rivett et J. Scourfield (2007). Working with Men in
Health and Social Care, Los Angeles, Sage.
Fox, B. (1998). « Motherhood, changing relationships and the reproduction
of gender inequality », dans S. Abbey et A. O’Reilly (dir.), Redefining Motherhood : Changing Identities and Patterns, Toronto, Second Story Press,
p. 159-174.
Garbarino, J. et C.C. Collins (1999). « Child neglect : The family with a hole
in the middle », dans H. Dubowitz (dir.), Neglected Children : Research, Practice,
and Policy, Thousand Oaks, Sage, p. 1-23.
Gillies, V. (2007). Marginalised Mothers : Exploring Working-Class Experiences of
Parenting, Londres, Routledge.
Glaser, D. (2000). « Child abuse and neglect and the brain : A review », Journal
of Child Psychology and Psychiatry, vol. 41, no 1, p. 97-116.
Glenn, E.N. (1994). « Social construction of mothering : A thematic overview »,
dans E.N. Glenn, G. Chang et L.R. Forcey (dir.), Mothering : Ideology, Experience,
and Agency, New York, Routledge, p. 1-29.
Gordon, L. (1988). Heroes of Their Own Lives : The Politics and History of Family
Violence, Boston 1880-1960, New York, Penguin Books.
NÉGLIGENCE À L’ENDROIT DES ENFANTS ET MATERNITÉ
381
Gouvernement du Québec (2007). Loi sur la protection de la jeunesse. Québec,
Gouvernement du Québec.
Greaves, L. et al. (2002). Une question capitale pour les mères : le discours sur les
soins maternels en situation de crise, Ottawa, Condition féminine Canada.
Harding, L.F. (1998). « Children’s rights », dans O. Stevenson (dir.), Child
Welfare in the UK 1948-1998, Oxford, Blackwell, p. 62-67.
Hays, S. (1996). The Cultural Contradictions of Motherhood, New Haven, Yale
University Press.
Hooper, C.A. et al. (2007). Living with Hardship 24/7 : The Diverse Experiences of
Families in Poverty in England, Londres, The Frank Burtle Trust.
Horwath, J (2007). Child Neglect : Identification and Assessment, Basingstoke,
Palgrave Macmillan.
Howe, D. (2005). Child Abuse and Neglect : Attachment, Development and Intervention,
Houdmills, Palgrave Macmillan.
| 19,959
|
30/halshs.archives-ouvertes.fr-halshs-01620352-document.txt_1
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 9,657
| 14,347
|
Ntsonde, Franck ggeri
Confrontés à des problématiques environnementales croissantes liées à leur urbanisation fulgurante, les pays en voie de développement doivent trouver un moyen de conjuguer développement économique et protection de l'environnement. Ce défi considérable amène les acteurs socio-économiques à adopter des approches innovantes en termes de RSE qui ne peuvent pas se penser avec les cadres théoriques actuels, principalement issus de travaux relatifs aux contextes des pays du Nord. A partir d'une revue de littérature sur le concept de RSE et d'une enquête qualitative effectuée sur l'économie circulaire au Cameroun, nous proposons un modèle théorique plus pertinent pour penser la RSE dans le e . Mots-clefs : RSE, relations Nord-Sud, Afrique, économie circulaire, déchets
1 Introduction
Depuis leurs indépendances acquises au début des années 1960, les pays d'Afrique centrale et de l'ouest ont dû faire face à plusieurs crises et défis à relever pour mener à bien leurs projets de développement économique. Au début des années 1990, durement touchés par une crise financière puis économique générée par l'effondrement des cours du café, du cacao, des graines oléagineuses, du coton et du thé (CNUCED, 2003), ils ont ensuite dû subir en 1994, une dévaluation de 50% de leur monnaie, le Franc CFA, ce qui a abouti à une inflation importante, une paupérisation croissante de leurs populations et un fort endettement public. Quelques années plus tard, la crise mondiale de 2008 liée aux « subprimes » a incité les pays développés (Etats-Unis, Europe) à réduire leurs aides aux pays en voie de développement. Enfin, en 2014, la secte islamiste Boko Haram a lancé une série d'attaques meurtrières au Nord du Cameroun, obligeant le gouvernement à consacrer une part importante de son faible budget à la lutte anti-terroriste, tandis que la baisse des cours du pétrole a fragilisé toute la sous-région où se trouvent plusieurs pays pétroliers (Nigéria, Gabon, Guinée équatoriale). L'accumulation de toutes ces difficultés économiques rend difficile toute prise de conscience des problématiques environnementales par les camerounais qui restent préoccupés avant tout par leur survie, que ce soit au niveau des citoyens ou des acteurs socio-économiques. Pourtant les enjeux environnementaux locaux sont réels, la conjugaison d'une urbanisation à la fois foudroyante et chaotique, avec une paupérisation massive, génère dé des nuisances considérables pour les habitants des grandes villes camerounaises : prolifération des tas d'ordures, inondations, pollution de l'air, propagation de maladies. A première vue, les initiatives de RSE (Responsabilité Sociale des Entreprises) au sein des entreprises camerounaises semblent se limiter aux filiales de multinationales qui transposent au niveau local des politiques de RSE souvent décidées au niveau groupe, mais en réalité, bien qu'elles ne soient pas formalisées, les pratiques de RSE sont bien présentes, notamment au sein des PME qui constituent la grande majorité du tissu économique local (Wamba et al., 2014). Il s'agit en fait d'« une RSE africaine qui ne dit pas son nom » (Wong, 2012, 2016) reposant sur une vision de l'entreprise comme moyen et outil de production de richesses au service de la communauté. Mais intégrer les particularismes socioculturels locaux dans une « RSE africaine » ne suffit pas à prendre en compte la singularité des approches et des pratiques responsables qui se déploient dans les pays africains, sous peine de passer à côté de toutes les conditions économiques, institutionnelles, historiques et technologiques qui structurent les initiatives 2 de RSE en Afrique et nécessitent de réinterroger les fondements du concept de RSE. Tout d'abord, appréhender toutes ces caractéristiques présuppose de s'écarter du tropisme individualiste sous-jacent aux modèles théoriques de RSE des pays du Nord (Etats-Unis, Europe) qui conceptualisent la RSE comme un principe ou des pratiques qu'une organisation peut exercer vis-à-vis de la société. Notre thèse est que dans un contexte africain, la RSE ne peut se penser uniquement d'un point de vue individuel mais qu'elle peut également se déployer à travers une dynamique d'action collective pour compenser les limites individuelles de chaque acteur. Les entreprises camerounaises n'ayant pas les moyens d'assumer individuellement leurs responsabilités sociales et environnementales, les pouvoirs publics étant dépassés par l'ampleur des enjeux, ce sont des initiatives d'acteurs privés, d'entrepreneurs et de citoyens qui enclenchent une dynamique d'action collective pour prendre en charge une partie de cette responsabilité sociétale. Par ailleurs, dans la littérature académique, la plupart des travaux ont cherché à comprendre comment définir la RSE, la mettre en oeuvre ou à évaluer son impact sur le fonctionnement des entreprises, mais peu d'entre eux se sont intéressés aux interactions existant entre les deux dimensions constitutives de la RSE : la responsabilité sociale et la responsabilité environnementale, comme-ci ces deux dernières étaient mutuellement exclusives ou comme si l'objet RSE était sorte d'entité indivisible. Or dans la pratique, les acteurs qui s'impliquent dans des projets responsables cherchent parfois à combiner ces deux formes de responsabilité lorsqu'ils sont confrontés à des enjeux sociaux et environnementaux qui sont interdépendants, ce qui se matérialise souvent dans les pays en voie de développement. La question qui est posée ici est celle de la définition d'un cadre de pensée pertinent pour appréhender les spécificités des enjeux socio-économiques et environnementaux d'un pays africain en voie de développement. Afin d'étudier ces spécificités africaines, nous nous sommes donc intéressés au cas de la problématique des déchets au Cameroun et à l'émergence d'une économie circulaire. Méthodologie
L'objectif de notre recherche était de concevoir un modèle de RSE pertinent pour un pays africain en nous appuyant à la fois, sur une large revue de la littérature existante et sur une enquête de terrain. Dans un premier temps, nous avons donc effectué une revue de littérature visant à faire ressortir la diversité des approches théoriques qui ont été utilisées par les chercheurs pour analyser le concept de RSE. Cette revue de littérature ne cherchait pas à fournir un état de l'art exhaustif, mais plutôt à identifier les grandes familles de travaux ayant été effectués sur la RSE pour tenter de mieux conceptualiser les différentes facettes que peut revêtir ce concept dans la littérature. Bien qu'il y ait une grande hétérogénéité d'approches sur la RSE, nous avons cherché à proposer un modèle générique, avec une granularité suffisante pour conceptualiser les principaux attributs existants. Cette première phase nous a permis de proposer un premier modèle synoptique de RSE qui nous a ensuite servi de référence théorique dans la suite de notre recherche. 4 Dans un second temps, étant donné que la majorité des travaux sur la RSE ont été effectués dans les contextes des pays développés (Jamali et Mirshak, 2007), nous avons choisi ensuite de confronter ce modèle synoptique au contexte d'un pays en voie de développement, en l'occurrence, le Cameroun. Nous avons choisi d'étudier plus spécifiquement le cas de l'économie circulaire, qui génère depuis peu une dynamique de pratiques responsables dans le pays, via une enquête de terrain qui s'est déroulée de janvier à avril 2017, soit une durée totale de 4 mois. L'enquête s'est appliquée à identifier les différents types d'acteurs impliqués dans l'économie circulaire au Cameroun ( cteurs publics, entreprises, société civile) et à effectuer des entretiens semi-directifs auprès d'une trentaine d'entre eux (voir liste du tableau 1). Ces entretiens ont été menés à partir d'un guide d'entretien regroupant des questions sur d'une part, les enjeux de la RSE et du développement durable, la manière dont ils sont perçus, les rôles joués par les différents acteurs et sur d'autre part, le concept et les enjeux de l'économie circulaire, la manière dont ils sont perçus par les acteurs socio-économiques et les stratégies déployées par les acteurs pour développer l'économie circulaire. Les entretiens ont été majoritairement enregistrés et retranscrits lorsque les interlocuteurs donnaient leur accord, et pour le reste, nous avons effectué des prises de notes. 5 Typologie des structures
Liste des structures Hysacam, AfricaWasteEnergy, KemitEcology, Acteurs privés Entreprises, PME, TPE, Start-up Auversic environnement, Bellomar, BB corp, Super Plastic, Agrocam, Marché de Bonamoussadi, Intrapac, Seka, GIC de production de plastique, Mona plast Ministères, collectivités territoriales Ministère de l'environnement, Ministère de la recherche, Communauté urbaine de Douala, Mairie de Douala 3e, Mairie de Douala 5e CIPRE, ERA-Cameroun, Solidarité technologique, Société civile Associations, ONG Solidarité PK9, Madiba et Nature, Agence de développement de Douala, Camredd, WasteAid, FCTV, Sanhysd Ajegbo, RAVADEM Tableau 1 : liste des acteurs rencontrés Documents de présentation des activités des acteurs Fiches techniques sur les procédés de fabrication Compte-rendu de visites de sites de production et d'exploitation d'acteurs de la revalorisation des déchets Photos prises sur les sites de production et d'exploitation Vidéos de présentation de certains acteurs diffusées par les médias TV et internet Contenus divers (messages, vidéos, présentation) diffusés sur les réseaux sociaux, en particulier Facebook qui est un canal de communication privilégié pour les entreprises au Cameroun Rapport de synthèse des recommandations des assises nationales de l'économie circulaire Plan stratégique du réseau d'acteurs RAVADEM (Réseau des Acteurs pour la Valorisation des Déchets Ménagers) Tableau 2 : sources de données secondaires 6 Revue
de
litt
érature
Dans cette revue de littérature, nous allons analyser la genèse du concept théorique de RSE ainsi que les principales approches qui ont été mobilisées jusqu'à présent par les chercheurs en sciences sociales pour étudier ce concept de RSE. Ensuite nous tenterons de déterminer dans quelle mesure les spécificités des contextes sociaux, économiques culturels des pays africains ont été pris en compte dans certains travaux, puis nous montrerons les limites théoriques de ces approches et la nécessité d'aller vers un changement de paradigme. Les approches théoriques de la RSE
En ce qui concerne l'état de l'art, on peut noter que depuis les années 50, les différentes approches de la RSE ont fait apparaître de nombreux questionnements, que ce soit sur le plan conceptuel, théorique, pratique ou managérial (Attarça et Jacquot, 2005). Ce qui explique que « l'intérêt des chercheurs pour la RSE se manifeste par un foisonnement conceptuel [] et par une forte hétérogénéité des travaux en tous genres » (Acquier et Aggeri, 2008). Plusieurs chercheurs se sont attelés à essayer de fournir une définition théorique à la notion de RSE. Pour Carroll (1979), la RSE représente un ensemble d'obligations que les entreprises ont vis-à-vis de la société et qui sont d'ordre économiques, légales, éthiques et philanthropiques. D'après Wood (1991), la RSE peut se décliner sur trois niveaux : la responsabilité en tant qu'institution sociale de par la légitimité dont elle dispose, la responsabilité par rapport aux conséquences de ses activités, et la responsabilité morale et individuelle des dirigeants et managers. Cependant, à l'heure actuelle, d'après Dahlsrud (2008), la définition la plus utilisée de la RSE est celle qui a été formulée par la commission européenne en 2001, stipulant que la RSE est : « un concept à partir duquel, les entreprises intègrent, volontairement, des enjeux sociaux et environnementaux dans leurs activités économiques et leurs relations avec leurs parties prenantes ». Au début des années 1980, une nouvelle approche plus globale et relationnelle de la RSE a émergé, celle des parties prenantes qui a conceptualisé la RSE à travers les relations entre l'entreprise et les acteurs sociétaux avec lesquels elle interagit (clients, associations, pou s publics) (Freeman, Reed, 1983). En plus des tentatives de définition et de conceptualisation de la RSE, plusieurs travaux ont cherché à comprendre quelles stratégies 7 pouvaient adopter les entreprises vis-à-vis de cet objet RSE (Caroll, 1979, Bellini, 2003, Martinet et Reynaud, 2004), certaines se montrant plutôt volontaristes, d'autres réfractaires et les dernières se contentant de s'adapter aux évolutions de leur contexte institutionnel. Cela a amené d'autres chercheurs à caractériser les différentes modalités à travers lesquelles les entreprises déploient et opérationnalisent la RSE (Martinet, Payaud, 2013). Il faut également noter que parmi les nombreuses approches qui ont été mobilisées jusqu'à présent pour étudier la RSE, un grand nombre d'entre elles ont cherché à déterminer l'influence de la RSE sur la performance des entreprises (Orlitzky et al. 8 Figure 1 : Modèle synoptique de RSE
Emergence d'une RSE africaine
Même si, certaines approches se sont intéressées aux déterminants socioculturels de la RSE, jusqu'à présent, la plupart des travaux qui ont été menés sur la RSE se situaient dans le contexte d'un pays développé, en Europe de l'Ouest, Etats-Unis Unis ou Australie (Jamali et Mirshak, 2007). Pourtant la mise en place de pratiques responsables dans le milieu des affaires est encore plus nécessaire dans les pays en voie de développement qui ne disposent pas des mêmes infrastructures, in institutions stitutions et outils de régulation que les pays développés (Cheung et al., 2009),, par conséquent, les attentes vis vis-à-vis vis des entreprises dans ces pays sont encore plus élevées et à la mesure des manques existant dans la société (Dobers et Halme, 2009). Par ailleurs, plusieurs travaux de chercheurs ont mis en avant l'inapplicabilité et l'inadéquation des concepts théoriques de RSE construits à partir des perspectives nord nordaméricaines et européennes vis vis-à-vis vis des contextes des pays en voie de développement (Prieto Carron et al., 2006). 9 Malgré le nombre relativement modeste d'études réalisées sur la RSE en Afrique, on peut dénoter une certaine diversité dans les approches mobilisées, symptomatique du caractère protéiforme du concept de RSE. Plusieurs chercheurs se sont par exemple intéressés au cas des firmes pétrolières dans le delta du Niger et aux stratégies que ces dernières doivent déployer vis-à-vis de leurs parties prenantes pour limiter les frustrations et les conflits avec les communautés locales et réduire les impacts négatifs de leurs activités (Edoho 2008, Ite, 2004, Idemudia & Ite, 2006, Lado et Renouard, 2012).
Mitchell et Hill
(2009) ont cherché à analyser les freins organisationnels qui entravent le déploiement de la RSE au sein de multinationales implantées en Afrique du Sud. La question du Sida est aussi présente dans les préoccupations sociales de nombreuses multinationales implantées en Afrique (Dunfee, 2006, Pestre, 2007). Certains travaux ont proposé une évaluation du niveau de RSE des grandes entreprises implantées en Afrique (Pale et Ouedraogo, 2016, Moskolaï et al., 2016), tandis que d'autres se sont interrogés sur les moyens d'intégrer la RSE dans le droit en vigueur dans l'espace Ohada regroupant 17 pays en Afrique (Diawara et Lavallée, 2014). Vers une nouvelle forme de RSE?
Les travaux sur la RSE en Afrique ont fait apparaître un besoin d'adapter les concepts théoriques de responsabilité aux contextes locaux des pays africains, si bien que la plupart de ces travaux tendent à intégrer les spécificités, souvent culturelles, des pays africains pour tenter de faire émerger des concepts et pratiques d'une RSE idoine. C'est notamment l'approche de Wong (2016) qui tente de poser les contours d'une « RSE africaine », qu'il décrit comme une hybridation des préceptes théoriques du Nord avec des pratiques plus traditionnelles et culturelles des pays africains. Dans la même lignée, Wamba et al. (2014) 10 notent que dans le milieu des PME camerounaises, la RSE s'apparente aussi à une prise en compte des intérêts de la communauté locale dans les activités de l'entreprise. Finalement, cette « RSE Africaine » se contente de décliner en version locale le concept traditionnel de RSE sans questionner ses fondements, ni sa capacité à appréhender les formes et modèles de responsabilités sociales et environnementales existant en Afrique. Si on ne peut nier que les particularismes sociaux et culturels africains tendent à façonner une RSE vernaculaire, il reste tout un ensemble de pratiques de responsabilité sociale et environnementale africaines qui échappent encore à cette « customisation » du concept de RSE. Dans le contexte d'un pays africain, la RSE, que l'on peut définir comme « la contribution des entreprises au développement durable » (Courrent, 2012), tend à se positionner dans un système de responsabilité plus large où les entreprises, les pouvoirs publics et les acteurs de la société civile opèrent en partenariats. Dans des environnements grevés par une faiblesse institutionnelle, une incurie administrative et une corruption endémique, la responsabilité sociale peut prendre une forme très différente (Dobers & Halme, 2009). Une vision plus collective de la RSE, s'impose alors pour appréhender les formes d'action collective qui se structurent pour contribuer à résoudre les problématiques sociales et environnementales. En filigrane, l'enjeu qui est posé ici, est de concevoir un nouveau modèle de responsabilité qui inclut à la fois les perspectives collective et individuelle ainsi que les singularités contextuelles des pays africains, comme la forte interdépendance existant entre les enjeux sociaux et environnementaux. Résultats Afin d'analyser les différentes formes de responsabilités qui se structurent autour de la question des déchets et de la pollution environnementale, notre étude s'est concentrée sur la problématique des déchets et de l'émergence de l'économie circulaire au Cameroun. Comme nous le préciserons ultérieurement, les paramètres institutionnels, économiques et politiques au niveau national et international ont posé des conditions favorables à l'émergence de tout un ensemble d'acteurs provenant de la sphère publique, privée et de la société civile. Ces acteurs ont décidé de s'attaquer à la problématique des déchets et d'oeuvrer pour une transition vers l'économie circulaire (voir encadré 1).
11 Encadré 1 : Exemples d'acteurs et d'initiatives dans l'économie circulaire au Cameroun
Hysacam : entreprise camerounaise d'environ 5000 salariés, présente dans plusieurs grandes villes du Cameroun et dans quelques villes africaines au Bénin, Tchad, Niger. Hysacam a un partenariat technique avec Veolia propreté et gère les opérations de collecte et de traitement des déchets urbains dans 14 des plus grandes villes du Cameroun. Hysacam a aussi construit des usines de captage et de traitement de biogaz et envisage, à terme, de produire de l'électricité à partir de ce biogaz. KemitEcology : projet entrepreneurial basé à Douala dont l'objectif est de fournir une solution alternative au charbon de bois et au bois à moindre coût, en collectant et transformant des déchets organiques ménagers en charbon vert. Chaque année, 288 tonnes de déchets organiques ménagers sont collectés dans la ville de Douala et 24 tonnes de charbon vert sont produits. Kemit est actuellement en train de breveter sa technologie de fabrication auprès de l'OAPI (Organisation Africaine de la Propriété Intellectuelle). Solidarité PK9 : association de jeunes créée en 1998 dans le quartier Sobikago PK9 (Douala 3e) dans le but de favoriser l'entraide et le développement local avec des actions de sensibilisation des populations sur plusieurs thématiques (gouvernance locale, santé et environnement). En 2014, dans le cadre d'un projet de partenariat public-privé avec la mairie de Douala 3e soutenu par l'ONG FCTV et l'Union européenne, ils ont commencé à se concentrer la problématique des déchets avec la précollecte (voir encadré 2) des déchets, la formation des ménages et l'assainissement de plusieurs quartiers de Douala 3e. Solidarité Technologique : association franco-camerounaise basée à Yaoundé qui, en partenariat avec la Guilde du Raid, a créé en 2003 le premier centre camerounais de traitement des déchets électriques et électroniques (DEEE). L'autre objectif du centre est de favoriser l'insertion des jeunes démunis en leur octroyant des formations en maintenance informatique et en secrétariat bureautique. CIPRE : ONG créée en 1996 à Yaoundé pour organiser la précollecte (voir encadré 2) et la revalorisation des déchets plastiques dans les quartiers défavorisés. CIPRE a également inclus un volet social dans son activité en formant des personnes défavorisées à la fabrication artisanale de produits divers à partir déchets recyclés. Dans les années 2000, CIPRE a créé le réseau CAP-ASUR regroupant une quinzaine d'associations et ONG à 12 Yaoundé pour coordonner les actions de collecte de déchets dans plusieurs quartiers de la ville. Bellomar : Projet entrepreneurial destiné à fabriquer des savons et des détergents à partir d'huiles industrielles usagées collectées auprès des restaurateurs et hôteliers de la ville de Douala. En 2012, avec le soutien de l'ONG FCTV, Bellomar a lancé la création du réseau d'acteurs RAVADEM pour organiser et coordonner plusieurs acteurs du recyclage des déchets à Douala. Sanhysd Ajegbo : Association créée en 2008 pour organiser la collecte des déchets dans plusieurs quartiers de Douala 4e et sensibiliser les habitants aux problématiques environnementales. Les catalyseurs de l'action collective dans l'économie circulaire
Au coeur de cette volonté collective d'aller vers l'économie circulaire réside la question de la gestion des déchets particulièrement préoccupante dans les grandes villes camerounaises, et ce, malgré le travail effectué par la société Hysacam qui détient les contrats de délégation de service public, pour la collecte, le transport et le traitement des déchets, auprès des principales communautés urbaines du pays. Les déficiences de la politique de gestion des déchets au Cameroun constituent un des principaux catalyseurs à l'origine de la dynamique d'action collective que l'on peut observer sur place. 13 La question des déchets une prise de conscience difficile mais croissante
D'après l'ONU-Habitat (2010), c'est en Afrique que le rythme d'urbanisation est le plus élevé (plus de 3,4% par an), conséquence des difficultés croissantes rencontrées par les agriculteurs et les populations rurales pour assurer leurs moyens de subsistance. Ce phénomène d'exode rural a été accentué dans les années 1990 par la crise économique qui a frappé le Cameroun, et provoqué la chute des prix des cultures de rente qu'étaient alors le café et le cacao (Ngambi, 2015). L'afflux massif de populations en provenance des campagnes vers les villes s'est combiné à d'importantes réductions des budgets des pouvoirs publics avec comme conséquence, une déficience considérable de la politique de gestion des déchets. Un responsable de CIPRE, une ONG impliquée dans la collecte et la revalorisation des déchets à Yaoundé, la capitale du Cameroun, décrit ainsi la situation telle qu'il la percevait à l'époque : « mon attention a été attirée par le fait que dans le milieu urbain il y avait des montagnes d'ordures partout et particulièrement, il y avait les déchets plastiques qui se faisaient remarquer soit par leur couleur, soit par leur mobilité quand il y avait le vent, etc par leur non biodégradabilité dans la nature [] Donc tout le monde était en désarroi, dans un contexte de ce genre où la ville était envahie par les ordures, des montagnes d'ordures et même des rues qui étaient complètement au Sud, à cause des ordures». Depuis, un certain nombre d'efforts ont été entrepris par les pouvoirs publics et la société civile, mais malgré une nette amélioration, la situation reste encore perfectible, en particulier dans les quartiers popul des grandes villes où une bonne partie de l'habitat se construit de manière spontanée au mépris de toutes les règles d'urbanisme, d'hygiène et de salubrité. Toutefois, d'un point de vue général, « Il n'est pas rare de rencontrer des décharges sauvages d'ordures ménagères au coeur de certains quartiers, ou des cours d'eau complètement bouchés par des déchets ménagers et par des objets plastiques de tous ordres, entraînant un réel phénomène d'insalubrité urbaine, y compris dans les quartiers planifiés » (Tchuikoua, 2015). Cette situation peut s'expliquer par un ensemble de freins techniques et organisationnels qui entravent considérablement la mise en oeuvre d'une politique de gestion des déchets efficaces. L'économie circulaire : une prise de responsabilité collective
Les enjeux liés à la pollution environnementale et aux déchets conditionnent une prise de responsabilité chez tout un ensemble d'acteurs socio-économiques : les multinationales, les entreprises, l'Etat, les collectivités territoriales et la société civile. Du côté des entreprises, plusieurs grandes entreprises ont entrepris des actions de RSE destinées à améliorer la gestion des déchets au Cameroun. Ainsi, une des plus importantes entreprises camerounaises, la société des Brasseries du Cameroun (SABC), qui commercialise plusieurs marques de boissons, a lancé en 2010 un projet destiné à réduire la pollution des 15 sols et des eaux en favorisant la récupération et le traitement des eaux usées de ses usines, puis, elle a mis en place en 2012 un partenariat technique avec Hysacam pour collecter les bouteilles plastiques, les recycler et revendre la matière transformée à l'étranger (Kamdem, 2013). De manière générale, au Cameroun, ce sont surtout les grandes entreprises qui ont un comportement volontaire vis-à-vis de la RSE et mettent en place des politiques sociales et environnementales de manière proactive (Ngongang, 2016), ce qui se vérifie dans le cas des déchets qui représentent une problématique de plus en plus importante pour les camerounais. Toutefois, si on prend en compte les caractéristiques institutionnelles du Cameroun, on peut remarquer que cette prise de responsabilité ne se limite pas à la sphère des grandes entreprises mais s'étend également à tout un pan de la société civile. Il faut dire que depuis la crise économique de 1990, les faiblesses notables de l'action publique combinées aux pressions des bailleurs de fonds internationaux pour libéraliser l'économie du pays ont abouti à un assouplissement juridique régissant les initiatives privées et citoyennes. Pour les bailleurs de fonds internationaux, faire émerger initiatives de la « société civile » a pour objectif « d'articuler d'une part, le changement d'orientation de l'aide internationale vers des acteurs locaux en s'appuyant sur les initiatives citoyennes, plutôt que des grands projets d'ordre macro-économique gérés par des états inefficaces et corrompus, avec, d'autre part, la volonté de démocratisation et de décentralisation des pouvoirs allant vers une approche plus participative de la vie politique » (Pirotte, 2005). 16 Pour ces acteurs, la question de la responsabilité est au coeur de leur engagement et de leur action, comme l'indique un responsable de Kemit Ecology : « Le projet de Kemit est responsable parce que d'abord on a réussi à limiter, à notre manière, la coupe des bois de mangrove, ne serait-ce qu'en sensibilisant et en s'installant dans la mangrove et en apportant le charbon écologique sur le marché moins cher que le charbon de bois, c'est là le plus gros avantage. Parce que les gens vont changer carrément leurs habitudes d'utilisation du charbon de bois, pour utiliser un charbon qui est plus respectueux de l'environnement ». Ainsi, théoriser les formes de responsabilité sociale et environnementale qui se structurent dans l'économie circulaire au Cameroun nécessite d'intégrer dans la RSE, les prises de responsabilité opérées par les entrepreneurs, la société civile et même les acteurs publics. Outre les observations empiriques que nous avons effectuées, ce constat s'appuie également sur une étude réalisée en 2011 par l'institut Afrique RSE, basé au Cameroun, qui a conclut que pour être performante, la RSE ne doit pas s'appliquer uniquement aux entreprises privées, mais aussi aux Etats, aux administrations, aux entreprises publiques et aux collectivités territoriales (Tené, 2011). La dynamique collective de la responsabilité
Dans la lignée de cette étude de l'institut Afrique RSE, une plateforme de dialogue a été lancée en juillet 2017 par le gouvernement camerounais pour favoriser la coconstruction par l'ensemble des parties prenantes, d'une politique publique de RSE adaptée au contexte camerounais. Il s'agit d'un premier pas des acteurs institutionnels, économiques et sociaux pour tenter de s'emparer collectivement des problématiques sociales et environnementales locales et essayer d'enclencher une dynamique appelée à attirer une diversité d'acteurs socio-économiques. Cette volonté part aussi du constat empirique que l'ampleur des défis auxquels sont confrontés les pays africains et la faiblesse relative des acteurs pris individuellement requiert une approche plus globale et systémique. Or, les travaux qui ont été menés jusqu'à présent sur la RSE ne permettent pas réellement d'entrevoir cette dynamique collective que l'on observe au Cameroun, ni de conceptualiser les différentes modalités qu'elle peut revêtir. En effet, dans la pratique, on peut observer de nouvelles formes d'action collective qui s'organisent et esquissent les contours d'une responsabilité dont les acteurs se saisissent de manière plus collective. Ainsi, à Yaoundé, dans les années 2000, un réseau d'associations (Cap-Asur), a été monté par l'ONG CIPRE pour organiser et structurer les opérations de 17 collecte dans plusieurs quartiers de la ville. Même si depuis 2012, le réseau est moins actif à cause de la dégradation récente de l'environnement économique au Cameroun, il a la capacité d'organiser des tournées de précollecte (voir encadré 2) des déchets des ménages dans plusieurs quartiers de Yaoundé, puis de trier ces déchets pour orienter la partie recyclable (plastique, verre, métaux vers des filières de revalorisation. A Douala, depuis 2012, et avec le soutien de l'ONG camerounaise FCTV (Fondation du Cameroun pour la Terre Vivante), plusieurs entrepreneurs et associations tentent de construire un réseau d'acteurs engagés dans des activités de revalorisation des déchets, le RAVADEM. Un des objectifs du réseau est notamment de permettre à ces acteurs, opérant dans plusieurs quartiers de Douala, d'unir leurs forces et leurs moyens afin de pouvoir obtenir un permis environnemental, document exigé par le ministère de l'environnement pour tous les acteurs impliqués dans des activités de traitement et de revalorisation des déchets. Encadré 2 : la gestion des déchets dans les villes africaines
« La gestion des déchets dans les villes africaines est dominée par le système « Partenariat Public-Privé ». Cette politique se propage dans les pays en développement à partir des années 1980. Dans le partenariat public-privé, l'Etat ou une institution étatique délègue ses fonctions à une société privée dans le cadre d'un contrat de prestations. Au fil du temps, les prestations des sociétés privées se sont avérées médiocres et connaissent des échecs dans plus de la moitié des villes. Ceci a incité les populations à trouver des alternatives et à s'impliquer dans la gestion des déchets à travers la précollecte dans les quartiers mal desservis. C'est une opération qui consiste à rassembler les déchets dans des récipients pour leur cheminement depuis leur lieu de production jusqu'au lieu de prise en charge par le service de collecte. Dans ce système, des associations, des PME, des ONG, des GIC, etc. passent des contrats de gré à gré avec les ménages pour l'enlèvement des déchets » source : Ngambi (2015), p 64 18 Une économie circulaire performante nécessite une prise en compte des enjeux sociaux A la différence de ce qu'on peut observer dans les pays développés, en Afrique, et en particulier au Cameroun, les enjeux sociaux et environnementaux s'entrecroisent et sont très fortement liés, en particulier en ce qui concerne la problématique des déchets. Etant donné, l'urbanisation rapide et le manque de moyens des pouvoirs publics, les enjeux sociaux rejoignent les enjeux environnementaux, si bien que toute tentative d'agir sur l'une des dimensions s'avère vaine si l'autre dimension n'est pas prise en compte dans la stratégie initiale. Dans ce contexte, on ne donc pas penser séparément la responsabilité sociale et la responsabilité environnementale, il faut plutôt concevoir une forme de responsabilité socio-environnementale reposant sur une logique dialectique où la question environnementale interroge la question sociale et inversement. Le social et l'environnemental, deux dimensions interdépendantes
Tout d'abord, les inégalités spatiales et sociales façonnent de manière profonde les inégalités environnementales que l'on peut observer dans les grandes villes du Cameroun. Suite à un exode rural massif, de nouveaux quartiers ont émergé, concentrant des populations issues du milieu rural qui se sont installées en périphérie des grandes villes, dans des zones en dehors des plans d'urbanisation des pouvoirs locaux (Tchuikoua, 2015). Ces quartiers ne sont pas toujours inclus dans les tournées d'Hysacam, et même quand ils le sont, ne sont pas toujours accessibles faute de routes suffisamment larges pour les camions de collecte de déchets. Par ailleurs, la plupart des habitants de ces quartiers subsistent grâce à l'économie informelle, faite de travail précaire et de commerces de rue. Ils manquent souvent de moyens pour financer dans la durée les modestes opérations de précollecte que certaines associations essaient parfois de lancer dans leurs quartiers. Enfin, ce sont encore les habitants de ces quartiers qui n'ont pas accès à l'information et aux canaux d'information publics, et restent ainsi à la marge des projets et des politiques de protection de l'environnement. Et en retour, on observe également, le renforcement des inégalités sociales par les inégalités environnementales entre les quartiers et les individus. Tout d'abord, les amoncellements d'ordures fréquents dans les quartiers pauvres posent de réels problèmes de santé pour les habitants en favorisant le développement d'insectes et de parasites 19 (moustiques, cafards, rats) véhiculant des maladies comme le paludisme par exemple. De plus, les quartiers pauvres n'ayant pas accès à l'eau courante les habitants de ces quartiers n'ont d'autre choix que de s'approvisionner au niveau des puits et des forages qui, en cas de pollution environnementale, peuvent être contaminés par des agents pathogènes et déclencher des épidémies infectieuses (choléra, fièvre typhoïde, amibes) (Tchuikoua, 2015). Outre la mortalité accrue consécutive à ces maladies infectieuses, les conséquences socio-économiques de ces problèmes sanitaires sont considérables car ils touchent des personnes qui n'ont souvent aucune couverture santé, n'ont pas les moyens de se soigner et dont l'équilibre économique fragile survit difficilement à une interruption d'activité. La question sociale au coeur des enjeux de l'économie circulaire
La majorité des initiatives et des projets d'économie circulaire qui ont été lancés au Cameroun intègrent un volet social qui cible les personnes les plus fragiles, comme l'explique un responsable de l'ONG CIPRE à propos du démarrage de leur activité : « le projet c'était que dans son volet social, il visait à améliorer la situation des populations dans les quartiers défavorisés en leur apportant de l'argent. Donc se débarrasser des déchets, ça c'est améliorer la qualité de l'environnement, valoriser les déchets pour avoir de l'argent, ça c'est le volet social. Donc du coup, le projet a été formulé pour contribuer à réduire la pollution de l'environnement due aux déchets et ensuite générer de l'argent aux plus pauvres ». Cet aspect social se retrouve souvent dans les initiatives de la société civile qui cherchent à combiner les enjeux sociaux et environnementaux. Par ailleurs, on peut noter également 20 que, souvent, ce volet social s'adresse prioritairement aux jeunes qui sont en difficulté. En effet, la jeunesse camerounaise représente, par son ampleur et son dynamisme un atout considérable pour le développement économique du pays, mais elle correspond aussi à une part de la population particulièrement exposée au chômage et au travail précaire. Par conséquent, les entrepreneurs, associations ou ONG qui mènent des activités de revalorisation des déchets cherchent souvent à préserver l'environnement et, en parallèle, à réinsérer des jeunes en difficulté, comme l'explique un entrepreneur qui relate une expérience qu'il a vécue dans un centre qui formait des jeunes à la fabrication artisanale de pavés à partir de déchets plastiques : « J'étais co-formateur dans la structure. On regroupait jeunes qui n'avaient pas d'emploi dans le quartier. C'était tout un centre, il y avait le secteur textile, automobile, soudure. Je m'occupais également de certaines catégories de personnes qui avaient été déjà en échec dans d'autres systèmes de formation. On leur donnait une seconde chance, d'avoir un métier pratique qui est basé sur le plastique. Donc ils pouvaient prendre le plastique et créer une société en se mettant à leur compte ». On retrouve également cette volonté d'accompagner les jeunes chez l'association Solidarité Technologique qui a crée un centre de recyclage et de traitement des déchets électroniques: « l'idée c'était donc vraiment l'insertion des jeunes démunis, et avec une préférence pour l'axe de l'informatique. Donc concrètement ça s'est traduit par deux formations, une en maintenance informatique, une en secrétariat bureautique ». En outre, cette jeunesse ne constitue pas seulement une finalité mais aussi une ressource, notamment pour les activités de recyclage qui ne requièrent pas nécessairement d'expertise spécifique, comme l'explique un responsable de l'ONG FCTV qui s'exprime au sujet de l'atelier de recyclage de téléphones portables qu'ils ont monté à Douala : « Nous avons recruté des jeunes, parce que c'est une activité qui ne demande pas trop d'expertise, de connaissances environnementales ». L'autre avantage procuré par les jeunes en tant que ressources réside tout d'abord dans le faible coût qu'ils représentent, notamment pour les associations de quartiers qui manquent de moyens financiers, mais aussi dans leur disponibilité liée à la morosité du contexte économique camerounaise et aux minces perspectives que celui-ci leur laisse. C'est le cas de l'association Solidarité PK9 dans le 3e arrondissement de Douala, qui s'appuie sur des étudiants bénévoles pour organiser des opérations de collecte et de traitement des déchets ménagers, ou de l'association Sanhysd Ajegbo, qui mobilise ponctuellement des jeunes pour des opérations de collecte de déchets plastiques dans des quartiers du 4e arrondissement de Douala. L'autre modalité de la question sociale se retrouve dans l'économie informelle, qui représente la majorité des emplois au Cameroun. Dans le cas de l'économie circulaire, cette 21 économie informelle prend forme à travers des récupérateurs qui opèrent au niveau des décharges ou des bacs d'Hysacam ou parfois même dans divers points de la ville. L'activité de récupération informelle permet à de nombreuses personnes de subvenir aux besoins de leurs familles, favorise la réduction de la ation de ressources naturelles et limite les impacts négatifs des déchets sur l'environnement (Ngambi, 2015). Malgré le manque d'encadrement administratif et financier de ce secteur informel, les filières de récupération et de retraitement des déchets sont relativement bien organisées et structurées, notamment dans le domaine du fer et de l'aluminium, comme l'explique un responsable de Solidarité Technologique : « il y a un secteur de la ferraille qui est assez structuré avec des métiers spécialisés et grosso modo, la plupart de ces déchets, des encombrants, qui sont jetés à la rue ou mis dans les bennes municipales sont rapidement ramassés par un ferrailleur qui fait un démantèlement sommaire sur place. 22 Une responsabilité située dans l'espace et qui se décline sur plusieurs niveaux
Dans l'économie circulaire camerounaise, plusieurs niveaux de responsabilité se dégagent et s'entremêlent : le niveau international où se positionnent les organisations internationales (Union européenne, Agence française de développement), et les multinationales (Orange, Vinci), le niveau national où les principaux acteurs sont l'Etat et les grandes entreprises camerounaises, et enfin, le niveau local composé d'une multitude d'acteurs : collectivités locales, chefferies traditionnelles, associations, coopératives, ONG
La responsabilité du Nord vis-à-vis du Sud
Tout d'abord, en ce qui concerne le niveau international, si on s'intéresse aux flux et échanges de matières Nord-Sud, on ne peut que constater la place prépondérante des entreprises des pays développés dans l'économie circulaire au Cameroun. Que ce soit en amont, ou en aval des filières de récupération et de revalorisation des déchets, ce sont souvent les pays développés, notamment la France, qui ferme, en quelque sorte, la boucle des flux de matières, avec une implication de plus en plus significative de la Chine. En amont parce qu'au cours des dernières années, les pays développés ont vu l'Afrique comme un débouché potentiel de leurs produits usagers et déchets, et en aval parce qu'étant donné le manque de structures industrielles en capacité de traiter efficacement les déchets sur place, une part importante des matières traitées en Afrique (fer, aluminium, plastique) repartent vers l'Europe, et de plus en plus vers la Chine ou l'Inde (Déclic & Deloitte, 2016). Il existe tout de même sur place, au Cameroun, des filières capables de retraiter partiellement les déchets en provenance d'Europe. C'est le cas notamment des vieilles voitures, qui lorsqu'elles ne peuvent plus rouler, sont découpées pour er des filières locales de recyclage du fer qui produisent des fers à béton pour l'industrie de construction camerounaise. Néanmoins, si ce flux de déchets alimente des filières de récupération et de recyclage, ils posent aussi des problèmes environnementaux en augmentant la quantité de déchets et en générant des risques supplémentaires lorsqu'ils contiennent des substances dangereuses. Les pays développés sont ainsi très présents en aval des filières de l'économie circulaire pour s'approvisionner en matières transformées. Les entreprises françaises et européennes occupent une place particulière dans l'industrie de recyclage du plastique. A l'heure actuelle, contrairement aux plastiques PVC et PEHD, il n'existe quasiment pas de 23 structures au Cameroun capables de transformer de bout en bout les plastiques PET utilisés dans la fabrication de bouteilles en plastique. Donc la plupart des entreprises et acteurs impliqués dans recyclage du PET essaient de nouer des partenariats avec des entreprises européennes pour leur vendre les déchets PET sous forme de granulés. Mais ces partenariats sont fragiles puisqu'ils sont tributaires de l'évolution des cours du pétrole. Si bien que la baisse des cours de ces dernières années a mis à mal plusieurs de ces projets avec l'Europe, ce qui profite aux opérateurs chinois, comme l'explique une responsable d'Hysacam à propos du projet « Plastic Recup » qui avait été mis en place avec la SABC pour le recyclage des bouteilles plastiques : « c'est le projet Plastic Recup qu'on a eu à faire avec les brasseries. Là sur le site, on a acheté une presse à balles, si vous allez voir à l'intérieur il y a les bouteilles compressées et tout. Initialement, on devait les revendre sur la France, on avait un partenaire du groupe Suez Environnement, mais avec la chute du coût du baril, les prix des produits plastiques ont énormément chuté, ça fait qu'aujourd'hui le prix du transport du produit jusqu'en France ne valait pas le prix de rachat, donc on s'est retrouvés ici inondés par toutes ces bouteilles plastiques, donc le projet s'est arrêté. On a du se débarrasser de tout cela, il y a des opérateurs chinois qui sont venus, qui ont pris tout ça à vil prix et on a arrêté ». Cette dépendance vis-à-vis des acteurs internationaux se vérifie aussi dans d'autres secteurs, comme celui des déchets électroniques. A Douala l'ONG FCTV a lancé un atelier destiné à collecter et traiter les téléphones portables défectueux. Formé pour le moment de cinq jeunes, l'atelier récupère les téléphones auprès des revendeurs et des réparateurs dans la ville, puis les trie, sépare les composants (batterie, écran, cartes électroniques) et les reconditionne pour les expédier en France où une entreprise d'insertion (Les ateliers du bocage), termine les opérations de recyclage. L'intervention de l'entreprise française dans ce cycle de recyclage est indispensable car il n'existe pas localement de structure capable de réaliser l'ensemble des opérations de traitement. Par ailleurs, l'exemple de FCTV illustre également une autre modalité de la prégnance du Nord dans l'économie circulaire du Sud puisque cette initiative est en fait un prolongement de la politique de RSE du groupe Orange, qui par transitivité, via la filiale camerounaise d'Orange, finance le projet mis en place par l'association FCTV. Ce projet s'inscrit donc pleinement dans la logique d'une RSE classique d'entreprise imaginée au siège d'un groupe international et déclinée en Afrique, dans les pays d'implantations de ce groupe, comme l'explique un responsable de FCTV : « c'est une initiative RSE d'Orange France, dans tous les pays où il y a ses filiales implantées. Puisque ce sont eux les garants, vu qu'ils mettent sur le marché certains téléphonespour contribuer à la marche environnementale du pays et aussi pour faire leur label en termes de RSE, ils ont lancé cette initiative dans plusieurs pays d'Afrique francophone. Spécialement là où se trouve déjà une 24 de leurs succursales ». On observe de la sorte, le prolongement de la RSE d'un groupe international, se matérialiser sous la forme d'un soutien à des initiatives locales. Le groupe Vinci, sous l'égide de sa filiale locale, Sogéa-Satom, est un autre exemple de la projection d'une RSE d'un groupe international sur le sol camerounais. Mais cette fois, le soutien ne se fait pas directement sous forme de soutien financier mais plutôt par des apports en nature (machines de production) et un accompagnement technique. A l'heure actuelle, Kemit Ecology, qui fabrique du charbon écologique à partir de déchets organiques, est en train d'acquérir du matériel qui va leur permettre de passer du niveau semi-industriel au niveau industriel. Idem pour l'association Solidarité PK9 qui jusqu'à présent n'avait pas de solution pour valoriser les déchets plastiques collectés. Ils vont bénéficier d'équipements fournis par Sogéa-Satom pour broyer le plastique collecté et pourront ainsi chercher des débouchés industriels pour leur broyat. Grâce à ces projets de RSE montés par des multinationales, de nombreux acteurs camerounais peuvent ainsi déployer sur leur sol tout un ensemble d'initiatives responsables qui contribuent à améliorer les conditions de vie et l'environnement des habitants. En plus de la RSE internationale, toutes ces initiatives locales bénéficient également du soutien des organisations internationales qui jouent un rôle déterminant dans leur développement. L'action effective mais limitée et complexe de l'Etat camerounais
A partir de 2012, une série de textes juridiques (décrets et arrêtés) ont été mis en place pour faciliter la mise en place de filières de revalorisation des déchets électriques et électroniques (DEEE), des emballages plastiques non biodégradables, des déchets médicaux, pharmaceutiques ou encore des déchets dangereux. Cette initiative institutionnelle a fait du Cameroun un des pays pionniers en Afrique, surtout en ce qui concerne les déchets électroniques qui ne font l'objet d'une règlementation officielle que dans très peu de pays africains. Cet arrêté sur les DEEE a notamment permis à l'association Solidarité Technologique d'implanter à Yaoundé, au Cameroun, un des tous premiers centres africain de traitement des DEEE. D'autre part, ces textes obligent également les acteurs qui souhaitent s'impliquer pour se lancer dans ces activités à obtenir un permis environnemental (Ngambi, 2015), ce qui constitue une manière de faire sortir de l'économie informelle certains des acteurs de l'industrie du recyclage et d'améliorer la traçabilité des déchets. On peut aussi mentionner un autre arrêté de 2012, qui a libéralisé le marché de la production d'électricité, ce qui a ouvert la voie à des acteurs souhaitant produire et commercialiser de l'électricité à partir de la revalorisation de déchets. C'est par exemple le cas d'Hysacam, qui a crée en 2016 une filiale dénommée Africa Waste Energy, dont l'objectif est de construire des usines de production d'électricité à partir du biogaz provenant de la méthanisation des déchets présents dans les décharges d'Hysacam. Ensuite, en 2014, là encore l'Etat camerounais a été un des pionniers en Afrique, puisqu'il a fait entre en vigueur un arrêté (signé en 2012) qui interdit la production et la distribution des sacs plastiques de 60 microns dans tout le pays, puis en 2016, il a organisé les premières assises nationales autour de la question des déchets sur le thème « Gestion des déchets: Vers une économie circulaire ». Plusieurs centaines d'acteurs privés, publics et de la société civile impliqués dans le domaine de la gestion et de la revalorisation des déchets ont été invités à participer à ces assises qui ont permis d'organiser des ateliers de réflexion sur la politique environnementale et ont débouché sur un rapport de recommandations. La principale conclusion de ces assises a été le démarrage d'un nouveau 26 projet au ministère de l'environnement, sur la mise en place d'abord au niveau régional, puis national, d'une bourse de déchets, sous forme de plateforme internet, pour faciliter la mise en relation entre les producteurs et les consommateurs de déchets. De manière générale, on peut noter plusieurs aspects positifs à ces politiques publiques. L'avènement du permis environnemental a permis aux autorités et aux acteurs du recyclage d'avoir une meilleure connaissance des acteurs opérants dans le secteur, il a permis également d'avoir une meilleure traçabilité de la collecte, jusqu'au transport et à la réutilisation des déchets grâce à un manifeste que tous les intermédiaires de la chaîne remplissent. Ainsi, ce permis a amené les acteurs à atteindre un niveau minimum de professionnalisation via notamment les audits et contrôles qui ont été mis en place dans le cadre de cette loi. Quant à l'arrêté interdisant la production et la distribution des plastiques de moins de 60 microns, il a contribué à réduire la pollution environnementale liée aux sachets plastiques qui s'accumulaient dans les villes et l'environnement. Cependant, ces mesures ont également entraîné des effets pervers que l'administration n'avait pas anticipés. Si dans un premier temps, la mise en place du permis environnemental a contribué à professionnaliser le secteur du traitement des déchets, il a aussi créé une barrière à l'entrée pour beaucoup d'autres qui, par manque de moyens ont arrêté leur activité, ce qui paradoxalement, a réduit les débouchés de recyclage dans la chaîne de valeur du plastique. Beaucoup d'organisations et d'ONG qui réalisaient des opérations de collecte et de tri des déchets plastiques se sont retrouvés sans débouchés pour leurs dé , comme l'explique un responsable de l'ONG CIPRE : « Donc pour toucher aux déchets maintenant, il faut être professionnel, vraiment professionnel. Je dis que, comme chaque médaille a son revers, l'application de cette mesure à laquelle tous les acteurs devraient se soumettre, a débouché dans une situation qu'on peut dire perverse. Parce que je dois être professionnel pour m'impliquer dans la gestion des déchets, du coup, si je n'ai pas la technicité, si je n'ai pas les moyens pour être en règle, pour éviter des problèmes avec l'administration, j'arrête l'activité. Beaucoup se sont trouvés dans une situation où, faute de pouvoir vraiment s'aligner, on préfère peut-être arrêter pour attendre ». Les enjeux locaux de la responsabilité, un tissu complexe d'interactions sociales
Dans les années 1990, l'inefficience et les insuffisances des pouvoirs publics centralisés en Afrique ont amené les bailleurs de fonds internationaux à promouvoir l'échelon « local » comme cadre d'action optimal, changeant ainsi de paradigme pour promouvoir une approche destinée à « faire émerger une démocratie empirique forgée dans un processus de construction et de décision partagé et structurant l'action collective autour d'enjeux de développement local » (Engueleguele, 2005). Cette dynamique soutenue par les aides des pays développés a pris part à la formation d'un tissu dense d'acteurs hétérogènes revendiquant la prise en charge des problématiques sociales et environnementales locales. C'est dans cet espace que s'activent les collectivités locales, les associations, les ONG, mais aussi les chefferies traditionnelles, vestiges des structures précoloniales. Créée en 2002, l'agence de développement de Douala est une association qui est le fruit d'un partenariat public-privé-société civile, avec pour objectif de développer l'économie de la ville en favorisant, par la médiation, la coordination de tous ces acteurs. Il s'agit d'un enjeu crucial pour déminer et limiter les conflits potentiels liés aux enjeux de pouvoirs, comme l'explique une responsable de cette association : « De manière générale, les acteurs ne travaillent pas toujours en collaboration, chaque acteur développe des projets à son niveau. Ce qui fait que lorsqu'on vient travailler avec un acteur, souvent ils ont l'impression que ceux qui font un peu dans la même activité pensent que nous voulons arracher leur projet ou alors que nous allons les étouffer dans leur projet, vous voyez? Donc généralement ils n'adhèrent pas si facilement , donc on commence d'abord par une grande sensibilisation, une bonne partie passe par la sensibilisation, l'information, pour les intéresser ». Dans le prolongement de cette volonté de favoriser le développement local, une nouvelle dynamique s'est structurée pour s'appuyer sur des partenariats entre des acteurs privés et publics pour développer l'économie circulaire. 28 L'ONG FCTV, avec l'appui financier de l'Union européenne, a ainsi impulsé plusieurs partenariats public-privé dans le 2e, le 3e et le 4e arrondissement de Douala entre d'une part, des associations ou des coopératives engagées dans la collecte et la revalorisation des déchets, et d'autre part des collectivités locales. Du côté des acteurs privés, il y avait notamment les associations Solidarité PK9 (Douala 3e) et Sanhysd Ajegbo (Douala 4e), que nous avons déjà mentionné précédemment. L'idée de départ était de permettre à ces initiatives privées, très petites, de pouvoir s'inscrire dans la durée en nouant des relations privilégiées avec les administrateurs locaux et en bénéficiant de leur accompagnement. Cependant, après la fin du financement de l'Union européenne en 2014, les résultats des partenariats s'avèrent plutôt mitigés et mettent en relief la complexité des interactions qui se structurent au niveau local. Dans le cas de Sanhysd Ajegbo, on peut tout d'abord noter les difficultés qui peuvent se poser dans la coopération avec les chefs traditionnels, comme l'indique un responsable de l'association : « Avant même d'agir sur le terrain, on leur dit que nous sommes sur telle action pour qu'on ne dise pas qu'on est en train de prendre leur place, parce que il y a aussi ce côté là, les chefs croient que les activités associatives veulent prendre la place des chefferies. Or la chefferie est traditionnelle, nous ne sommes pas traditionnels, nous sommes une association de droit camerounais, nous ne sommes pas des chefs traditionnels, donc un administrateur ne peut jamais être chef de quartier ou chef de village parce qu'il n'est pas né dans ce village ». Mais l'obstacle majeur qu'a rencontré Sanhysd Ajegbo, notamment dans le cadre du partenariat privé-public, c'est que la mairie de Douala 4e n'a pas respecté ses engagements. En effet, d'après le responsable de l'association, une bonne partie de la somme qui était destinée à les rétribuer pour les opérations de collecte et d'assainissement effectuées dans Douala 4e a finalement alimenté les comptes d'une société fictive qui servait officiellement d'intermédiaire entre la mairie de Douala 4e et Sanhysd Ajegbo. Ces soupçons ont d'ailleurs valu au maire l'époque un procès en 2015 auprès du tribunal criminel spécial dans le cadre de l'opération anti-corruption du gouvernement camerounais. Mais de manière plus générale, le responsable de l'association que nous avons rencontré a regretté de n'avoir finalement que peu de contacts concrets, peu d'accompagnement technique et aucun soutien financier de la part des autorités locales. Il faut noter aussi qu'une des raisons pour lesquelles la société civile se tourne plutôt vers les organisations internationales pour financer ses initiatives vient du fait qu'au Cameroun, contrairement à ce qui est prévu juridiquement, les structures administratives locales (mairies d'arrondissement), qui sont généralement gérées par l'opposition, ne perçoivent jamais leur quote-part de la taxe de développement local. L'essentiel de cette taxe est en réalité capté via un système de reversements opaque organisé par les communautés urbaines (Ngambi, 2015) qui sont 29 directement rattachées au pouvoir central qui cherche à garder une main mise sur les pouvoirs locaux, détenus par l'opposition. Cet enjeu politique de conservation du pouvoir par l'Etat central face à la volonté d'autonomisation des autorités locales se superpose à la complexité des interactions entre des acteurs locaux aux intérêts parfois divergents. Néanmoins, le cas de Solidarité PK9 à Douala 3e éclaire une autre facette, plus positive de ce jeu d'acteurs locaux. Là encore, avec l'appui de FCTV et de l'Union européenne, Solidarité PK9 a initié un partenariat avec la mairie de Douala 3epour assainir un quartier précaire de la ville. Mais contrairement à ce qui s'est passé à Douala 4e, le partenariat a très bien fonctionné, permettant ainsi à l'association de tisser un noeud de relations durables avec à la fois, tout un ensemble d'acteurs publics locaux et les citoyens. Outre la bonne volonté et la probité des interlocuteurs publics avec lesquels ils ont collaboré, un des éléments de cette réussite tient peut-être à l'importance accordé par l'association aux principes de « gouvernance locale » et de « contrôle citoyen » dont l'objet est justement de s'atteler à faciliter les relations entre les citoyens, les acteurs traditionnels, les acteurs locaux et les structures administratives locales. L'association organise donc régulièrement des espaces de dialogue entre les populations pour réfléchir à certaines thématiques relatives à leur milieu de vie et des forums, des réunions de quartier pour favoriser la participation citoyenne. Ces initiative leur permettent de remonter des informations à la mairie locale, qui en retour, leur fournissent le cadre officiel dont ils ont besoin pour agir sur le terrain et descendent même parfois sur le terrain à leurs côtés. Bien que la mairie de Douala 3e ne soit pas en mesure de leur apporter un soutien financier, ils ont réussi à tisser des relations de confiance qui préexistaient au moment où FCTV a mis en place le projet d'assainissement public-privé, et qui se sont renforcées grâce à ce projet. Proposition 1 (P1) : La RSE peut se penser soit à partir d'une orientation individuelle qui correspond aux cadres de pensée classiques de la RSE au Nord (une entreprise qui assume sa responsabilité vis-à-vis de ses parties prenantes et de la société), soit à partir d'une orientation collective qui se matérialise au Cameroun par une prise de responsabilité collective d'acteurs hétérogènes par rapport aux enjeux sociétaux. Par conséquent, si la perspective individuelle correspond aux paradigmes conventionnels de la RSE, que l'on retrouve dans le modèle initial de RSE que nous avons construit au début de notre recherche (figure 1) ; la perspective collective correspond plutôt aux dynamiques de responsabilité collective qui peuvent se former, comme c'est le cas dans l'économie circulaire camerounaise, avec une prise de responsabilité importante de la société civile et des acteurs publics qui fait écho aux paramètres institutionnels et économiques locaux, et agrège tout un ensemble d'entrepreneurs, d'associations, de coopératives et d'ONG soutenus par des acteurs publics et privés opérant à la fois au niveau national et international. Proposition 2 (P2) : Dans un pays africain, les enjeux sociaux et environnementaux sont souvent imbriqués et interdépendants. Sur fond d'urbanisation mal maîtrisée, les inégalités sociales structurent des inégalités environnementales qui, en retour, accentuent la fragilité des couches sociales les plus vulnérables. Le cas de l'économie circulaire illustre parfaitement pourquoi, dans ce contexte, la responsabilité sociale et la responsabilité environnementale sont indissociables et ne peuvent se penser indépendamment l'une de l'autre. Ainsi, des acteurs comme Solidarité Technologique, CIPRE, Sanhysd Ajegbo, Solidarité PK9 ou FCTV ont mis en place des stratégies destinées à adresser simultanément les problématiques sociales (chômage, précarité) et environnementales (déchets, 31 pollution) car ils perçoivent la forte imbrication existant entre ces deux dimensions. Ce conditionnement réciproque des dimensions sociales et environnementales constitue un élément idiosyncratique de la RSE en Afrique, car dans notre modèle initial, le couplage entre ces deux dimensions était beaucoup plus lâche. Proposition 3
(
P3) : La RSE se situe dans l'espace et se décline au niveau international, national ou local (ville, quartier). Le niveau international expose un jeu d'acteurs entre d'une part, les ONG, multinationales du Nord et d'autre part, les pouvoirs publics, entreprises et acteurs de la société civile du Sud. A l'échelon national, l'Etat tente d'assumer son rôle, tandis qu'au niveau local, un maillage diffus d'acteurs hétérogènes se mobilise pour gérer les problématiques socio-économiques et environnementales. Ces trois niveaux s'entrecroisent, ouvrant ainsi une chaîne complexe de circulation d'enjeux et de pouvoirs. Par exemple, le projet de RSE initié au niveau international par le groupe Orange se déploie à travers plusieurs pays africains, dont le Cameroun, et s'articule avec des formes de responsabilités locales incarnées par un dense tissu d'acteurs nationaux et locaux qui interagissent entre eux : collectivités territoriales, société civile et chefferies traditionnelles. Cette proposition renouvelle la manière de penser le processus de déploiement de la RSE qui jusqu'à présent, avait été analysé au niveau local ou international, sans nécessairement expliciter les interactions entre ces niveaux géographiques et leurs implications en termes de structuration de l'action collective.
| 34,463
|
2013PA030024_18
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,013
|
Propagande et représentations sous l'ère rosiste [1835-1852]
|
None
|
French
|
Spoken
| 7,450
| 11,384
|
L e s m a i s o n s e t c o m m e r c e s n o t o i r e m e n t r o s i s t e s — o u « p u n z ó s » 445 — furent pillés et saccagés. Après avoir privé le rosisme de sa tête pensante, sans doute fallait-il démonter les divers rouages de cet appareil complexe. Il ne fallut aux forces victorieuses point trop patienter pour s’y essayer. Voilà ce qu’en dit Palomeque : [...] los dispersos del ejército vencido entremezclados con soldados de caballería del ejército aliado, se derramaron en las calles centrales de Buenos Aires y saquearon las casas de negocios y las familias que encontraban en su t r á n s i t o . A q u e l l o f u e u n a e s p a n t o s a n o v e d a d p a r a B u e n o s A i r e s . 446 En ce jour de transition heurtée et tumultueuse, le Buenos Aires fédéral fut doublement « punzó » : symboliquement et matériellement. En effet, afin d’effacer la tâche sanguinaire et d’exorciser les démons qu’avait alimentés, pendant de si nombreuses années, l’officialisme rosiste, les nouveaux maîtres de Buenos Aires décidèrent de faire couler, ailleurs et autrement, le sang dont en quelque sorte le régime avait fait son signe distinctif et sa marque de fabrique, là même où le 445 Du français ponceau (coquelicot sauvage et sa couleur) : couleur rouge très vive, retenue très tôt par le régime pour marquer son appartenance au camp fédéral, en général, et accuser le soutien à la cause rosiste chez ceux qui l’arboraient, sous une forme ou sous une autre, au quotidien, en particulier. Nous aurons l’occasion de développer l’importance et la fonction de cette couleur lorsque nous parlerons des politiques d’uniformisation conçues par Rosas. 446
Id
.
, ibid
.
447 Pour
davantage de
détails, cf. Dictionnaire des symboles, Paris, Robert Laffont, 1997. 334
pour mieux signifier politiquement un soutien indéfectible au pouvoir établi. Le cœur même du pouvoir, son siège le plus intime, la demeure personnelle de Rosas à Palermo, tomba avant de se retrouver jonchée et, dans une certaine mesure, décorée par les cadavres mutilés et nus qui s’y étalaient. Des corps qui baignaient dans leur propre sang ; des corps auxquels on ne réserva pour seul linceul que les uniformes et insignes par lesquels il s’étaient distingués jusqu’en 1852. Voilà comment se déroula le dernier jour du rosisme à Buenos Aires : sanglant et meurtrier pour ses hommes, accablant pour Rosas. Sans doute la volonté de l’humilier et de le blesser fut-elle, du moins en partie, la raison de la destruction de la maison Rosas. Ne peut-on y voir une manière de se venger, une façon de nier la réalité ? C’est le début de la réécriture du passé : le vainqueur tient la plume et son encre est rouge de colère lorsqu’elle devrait être, si possible, grise, neutre. On ne soulignera jamais assez la place occupée par le rouge dans l’imaginaire rosiste. Loin de résulter d’une coquetterie du gouverneur portègne, son importance durable et croissante, tout au long de la période, témoigne du rôle structurant qu’on lui a accordé et de son efficacité implacable, en tant que l’un des vecteurs les plus marquants de la propagande développée au service de l’action de Juan Manuel de Rosas. Afin d’en éclairer la subtile puissance suggestive et d’en apprécier plus précisément la force expressive, arrêtons-nous, un instant, sur les divers signifiés pris par le rouge, dans les imaginaires chrétien et profane. Universellement reconnu comme le symbole originel par lequel se définit le principe de vie, en raison de sa force et de sa puissance, autant que par son éclat vivifiant, le rouge, couleur de feu et de sang, accuse néanmoins la même ambivalence symbolique que ces derniers éléments. Le rouge clair, éclatant et centrifuge, est mâle ; il est diurne, tonique et incite à l’action. Telle une étoile, il jette avec une puissance immense et irréductible son éclat sur toute chose et tout 335 être. Le rouge sombre, quant à lui, est nocturne, centripète et secret. Il exprime une sorte de féminité et représente plutôt que l’expression, le mystère de la vie lui-même. L’un entraîne, provoque et charrie. Comme a pu le souligner Michel Pastoureau, c’est le rouge des drapeaux et des affiches. C’est encore la couleur qui s’expose sur enseignes et emballages publicitaires. L’autre, au contraire, retient et incite à la vigilance. Il suscite parfois l’inquiétude et il arrive qu’il se nourrisse de l’angoisse de ceux qui l’observent et le craignent. C’est alors du rouge des feux de circulation ou de la lampe rouge interdisant, par exemple, l’entrée d’un laboratoire photo qu’il s’agit. On pourra enrichir cette liste des lampes rouges qu’arborent les maisons closes et qui font encore, en partie, la réputation de quartiers entiers, comme à Amsterdam. D’aucuns pourront voir une contradiction dans le sens que nous venons de décrire, puisqu’au lieu d’interdire, ces lueurs rouges incitent et attirent. Il n’en est rien, pourvu qu’on voie dans cette invite un appel à la transgression du plus profond des interdits : celui dont ont toujours été frappés les pulsions sexuelles et les instincts passionnels. Ce rouge nocturne et centripète, c’est le rouge que l’on a pris l’habitude d’identifier au feu central de l’homme et de la terre ; c’est le rouge du ventre et de l’athanor des alchimistes qui, occidentaux, chinois ou sémites, donnent au rouge un sens similaire. Le soufre rouge des Arabes désignant l’homme universel est directement issu de cette œuvre au rouge, qui n’est autre que le fruit de la gestation de l’athanor. Il en va de même du riz rouge que l’on retrouve dans le boisseau des Chinois : lié au cinabre, dans lequel il se transforme alchimiquement pour symboliser l’immortalité, il est lui aussi sang ou feu de l’athanor. Sous-jacent à la noirceur du vase et à la verdeur de la terre, ce rouge sacré autant que secret est le mystère vital qui se cache au fond 336 des océans primordiaux et des ténèbres. Il incarne l’âme, la libido, le cœur. C’est la couleur de la connaissance ésotérique, mais aussi de la science ; parfois interdite aux non-initiés, c’est une couleur que les sages parfois dissimulent sous leur manteau. Dans les larmes des tarots, l’Hermite, la Papesse et l’Impératrice portent une robe rouge, sous une cape ou un manteau bleu. A des degrés divers, tous les trois représentent la science secrète. Ce rouge est, en quelque sorte, d’une couleur fondamentalement matricielle. Licitement visible au cours seulement de la mort initiatique, il prend alors une valeur sacramentelle. La Mer Rouge et les océans empourprés des Grecs relèvent du même symbolisme : ils représentent le ventre où vie et mort se transmutent l’un en l’autre. Initiatique et centripète, ce rouge sombre revêt aussi une signification funéraire, dont nous aurons tout loisir de parler davantage dans le détail, plus avant. Telle est l’ambivalence de ce rouge de sang profond : quoique caché, il conditionne la vie. Répandu, il instruit la mort. De là provient l’interdit dont sont frappées les femmes en règles : le sang qu’elles rejettent est l’impur, parce qu’en passant de la nuit utérine au jour, il renverse sa polarité. Ce faisant, il passe du sacré droit au sacré gauche. Ces femmes sont intouchables et dans nombre de sociétés, d’ailleurs, elles sont tenues d’accomplir une retraite purificatrice avant de réintégrer la société qui les avait momentanément exclues. Ajoutons que cet interdit s’est longtemps étendu à l’homme qui versait le sang d’autrui, fût-ce pour une cause juste. A l’instar du bourreau aux habits rouges, le forgeron est un intouchable. Ce, justement parce qu’il touche l’essence même du mystère vital : le rouge centripète du métal en fusion et du sang. Le rouge solaire et diurne, ce rouge centrifuge et vif incite, lui, à l’action : il représente l’ardeur et la beauté, il exprime la force impulsive et généreuse, la jeunesse, la santé et la richesse. Libre et triomphant, c’est le rouge arboré par Eros ; sans doute cela explique337 t-il que dans nombre de coutumes, à l’image de la lampe rouge évoquée antérieurement, les deux versants du symbole sont présents et se font face. Généralement dilué dans une huile végétale, afin d’en augmenter le pouvoir vitalisant, c’est aussi le rouge de la peinture dont femmes et jeunes filles s’enduisent le corps et le visage, en Afrique Noire, au nom de l’interdit consécutif à leurs premières règles, à la veille de leur mariage ou après la naissance de leur premier enfant. C’est en- core de la peinture rouge, diluée également dans une huile, dont se parent jeunes gens et jeunes filles chez les Indiens d’Amérique. Censé éveiller le désir et stimuler les forces, ce rouge se drape d’une vertu médicale et s’affirme comme une panacée indispensable. C’est, en outre, le sens que d’innombrables traditions, de Russie jusqu’en Chine ou au Japon, prend l’association du rouge à toutes les festivités populaires et tout particulièrement aux fêtes de printemps, de mariage et de naissance. Aussi, d’un enfant, on dira souvent qu’il est rouge pour dire qu’il est beau. On le disait déjà chez les Celtes d’Irlande. Incarnant l’ardeur et la fougue de la jeunesse, le rouge est également, par antonomase, la couleur du phénomène guerrier. Ainsi, avec cette symbolique guerrière, semble-t-il bien que perpétuellement le rouge soit l’enjeu de la bataille — ou de la dialectique — entre ciel et enfer, feux ouranien et chtonien. Libérateur et orgiastique, c’est la couleur de Dionysos. Les Alchimistes, dont nous avons relevé supra l’interprétation chtonienne du rouge, disent aussi de la pierre philosophale qu’elle porte le signe du soleil. Composée des rayons concentrés du soleil, elle est pure et on l’appelle parfois l’Absolu. Lorsque le symbolisme solaire l’emporte et que Mars ravit Vénus à Vulcain, le guerrier devient conquérant et le conquérant s’érige en « Impérator ». Un rouge somptueux, plus mûr et légèrement violacé s’affirme alors comme l’emblème du pouvoir et bien vite s’en réserve 338 l’exclusif usage. Cette variété de rouge – le pourpre – était à Rome la couleur des généraux, des patriciens et de la noblesse. Elle devint par conséquent, assez naturellement, celle des Empereurs. Ceux de Constantinople étaient entièrement habillés de rouge. Le code de Justinien condamnait à mort l’acheteur ou le vendeur d’une étoffe de pourpre. C’est dire si elle s’était imposée comme le symbole même du pouvoir suprême. Il n’est pas de peuple qui n’ait exprimé, à sa manière, cette ambivalence d’où provient tout le pouvoir de fascination de la couleur rouge, qui porte en elle intimement liées les deux plus profondes pulsions humaines : action et passion, libération et oppression. Il n’est que de voir combien de drapeaux rouges, exposés au vent de notre temps, nous le rappellent au quotidien! Restaurateur des Lois ? Garant de l’ordre ? Appelé pour en garantir l’observation et en assurer le maintien, Rosas avait bâti sa réputation sur sa capacité à inscrire durablement Buenos Aires dans la paix sociale et civile. Or, devant faire face aux événements qui ont marqué le départ du Gouverneur déchu, ses ennemis n’ont pas su, pu ou voulu que l’ordre soit maintenu, afin de mieux entacher l’image et la réputation au nom desquelles Rosas avait assis son autorité morale, politique et militaire. C’est dans un tel contexte que la politique nationale a repris le travail de constitution, de rassemblement, et d’organisation du pays : elle l’a fait à partir du chaos produit par l’absence du « prócer » don Juan Manuel. Arrivé au pouvoir pour contenir l’effusion de sang, c’est par le sang et matériellement dans le sang que prirent corps les derniers moments du rosisme à Buenos Aires. C’est toujours une certaine débauche de sang, qui pendant longtemps marqua le rythme et battit le pouls de la ville. C’est encore ce même sang qui, fondamentalement, structura les discours et sujets politiques majeurs du second mandat de Rosas à la tête de la province. 339 Et il ne serait pas faux de dire que c’est également lui qui, de manière plus subtile et pernicieuse, informa les faits et gestes du quotidien culturel et social des Argentins de la première moitié du XIXe siècle. Et ce, dans la sphère privée comme dans la publique. Il est frappant de remarquer combien les habitants du Buenos Aires de cette époque coexistaient avec le sang au quotidien. Et qu’ils le faisaient sous diverses formes, ponctuant ainsi leurs faits et gestes au jour le jour. D’abord sous celle de leur propre sang, de ce sang qui est avant tout source de vie individuelle. Intervenait ensuite celui du Christ, transformé lors de la transsubstantiation eucharistique et exposé sur les murs et vitraux des églises. On retrouve également le sang dans les marchés et les abattoirs, dont Esteban Echeverría dépeignit une image saisissante dans El Matadero. Dès la première page de ce très beau texte, on découvre un autre lieu de singulière sociabilité, frappé lui aussi par l’entreprise d’information du régime: Los abastecedores, por otra parte, buenos federales, y por lo mismo buenos católicos, sabiendo que el pueblo de Buenos Aires atesora una docilidad singular para someterse a toda especie de mandamiento, sólo traen en días cuaresmales al matadero, los novillos necesarios para el sustento de los niños y de los enfermos dispensados de la abstinencia por la Bula y no con el ánimo de que se harten algunos herejotes, que no faltan, dispuestos siempre a violar las mandamientos carnificinos de la Iglesia, y a contaminar la sociedad con el mal ejemplo. Et Echeverría, de poursuivre : Sucedió, pues, en aquel tiempo, una lluvia muy copiosa. Los caminos se anegaron ; los pantanos se pusieron a nado y las calles de entrada y salida a la ciudad rebosaban en acuoso barro. Una tremenda avenida se precipitó de repente por el Riachuelo de Barracas, y extendió majestuosamente sus turbias aguas hasta el pie de las barrancas del Alto. El Plata creciendo embravecido empujó esas aguas que venían buscando su cauce y las hizo correr hinchadas por sobre campos, terraplenes, arboledas, caseríos, y extenderse como un lago inmenso por todas las bajas tierras. La ciudad circunvalada del Norte al Este por una cintura de agua y barro, y al Sud por un piélago blanquecino en cuya superficie flotaban a la ventura algunos barquichuelos y negreaban las chimeneas y las copas de los árboles, echaba desde sus torres y barrancas atónitas miradas al hori340 zonte como implorando la misericordia del Altísimo. Parecía el amago de un nuevo diluvio. Los beatos y beatas gimoteaban haciendo novenarios y continuas plegarias. Los predicadores atronaban el templo y hacían crujir el púlpito a puñetazos. Es el día del juicio, decían, el fin del mundo está por venir. La cólera divina rebosando se derrama en inundación. ¡Ay de vosotros, pecadores! ¡Ay de vosotros unitarios impíos que os mofáis de la Iglesia, de los santos, y no escucháis con veneración la palabra de los ungidos del Señor! ¡Ah de vosotros si no imploráis misericordia al pie de los altares! Llegará la hora tremenda del vano crujir de dientes y de las frenéticas imprecaciones. Vuestra impiedad, vuestras herejías, vuestras blasfemias, vuestros crímenes horrendos, han traído sobre nuestra tierra las plagas del Señor. La justicia del Dios de la Federación os d e c l a r a r á m a l d i t o s . 448 Tout n’était qu’affaire de contamination et de contagion. Les éléments naturels y contribuaient à leur façon. Bref, le sang était présent en tous lieux et en tous temps : ceux de la vie civique, économique et religieuse. Et, de la même manière que les couleurs d’hier ne sont pas celles d’aujourd’hui, ne nous étonnons pas trop hâtivement de ce que le contact avec le sang ait été, par le passé, plus suivi, plus violent et plus marquant. Une question — et non des moindres — cependant demeure : comment peut-on expliquer que la figure de Rosas ait été si étroitement associée à celle d’un dictateur sanguinaire ? Pour l’usage qu’il fit du sang et l’importance, jadis tue ou ignorée, qu’il sut reconnaître à ses pouvoirs symbolique et matériel, dès lors qu’il était question d’en faire une arme proprement politique? A cette question, faite pour stimuler la réflexion davantage que pour l’épuiser, l’on pourrait opposer une hypothèse de travail consistant à dire que la stratégie potestative mise en œuvre par Rosas s’alimentait d’images et de réflexes proprement populaires. Il était indispensable, pour que le peuple restât en éveil, mobilisé et actif pour la cause rosiste, que s’imposent des réflexes conditionnés. Est-il meilleur moyen d’y parvenir que par la voie d’images marquant les esprits, en raison de leur accès immédiat et leur assimilation rapide et aisée? Le XIXe siècle étant, peut-être davantage encore que le XVIIIe — en Amérique du Sud, du moins — celui de la popularisation et de la massification de la politique, il était indispensable de conquérir durablement cette nouvelle classe d’acteurs publiques et politiques. Rosas, en la matière, fut un précurseur autant qu’un visionnaire. Sa stratégie fut d’une redoutable simplicité : afin de mobiliser cette « plebs » rurale et les masses urbaines en voie de constitution, il créa de toutes pièces un ennemi commun au peuple tout entier. Il assigna, par la même voie, à ce dernier une cause, lui indiqua une morale et un verbe à suivre. Il officialisa pour ainsi dire aussi, à des fins d’uniformisation, un parler et une tenue, ceux-là mêmes qu’il avait acquis et qui l’avaient inspiré dans les zones rurales du « campo bonaerense », tout en forgeant son caractère et sa personnalité, lorsqu’il était jeune. Voici un homme radicalement attaché à la campagne. Dès lors peut-on s’étonner, compte tenu des représentations que l’on se faisait de la ville et de la campagne à l’époque, de ce que ses entreprises et son discours fussent marqués, d’une manière ou d’une autre, par le sang ? S’avérant particulièrement efficace et aisée à mettre en œuvre, cette démarche suscita de nouveaux émules dans le camp de l’opposition, bien que dans une tout autre perspective. Il était question pour eux, naturellement, d’en tirer également parti. Encore fallait-il définir les modalités d’une telle entreprise d’adaptation politicienne et en mesurer justement les conséquences. La plus notable d’entre elles fut l’apparition d’un contre discours, d’une contrepropagande, appelés non seulement à se systématiser pour ébranler celui dont la tête pensante était Pedro de Angelis, mais encore à se perfectionner et à s’adapter à un environnement politique changeant. Le développement de cette contre-propagande, chargée de rendre plus visible et audible une représentation concurrente du monde, contraire à celle que Rosas jugeait univoque et voulait incontestable, fut l’arme la plus redoutable que les opposants conçurent, depuis l’exil, pour secouer le pouvoir et les institutions rosistes. C’est 342 cela qu’il s’agira fondamentalement pour nous d’explorer dans cette partie de notre travail. Comment cette contre-propagande s’y prit-elle pour contrer celle de Rosas ? Quelle responsabilité faut-il lui reconnaître dans l’altération du discours rosiste ? Dans quelle mesure permit-elle de porter un regard divergent sur la société d’alors. Last but not least : en quel sens, avec le temps et au gré des diverses incursions discursives menées par l’opposition ce regard vint-il s’imposer à la parole, à la vision et au projet politique officiels ? Ordinairement marron, le Plata s’empourpre. On prête à cette couleur la faculté de teindre peaux et vêtements, de s’infiltrer métaphoriquement dans tout espace, public ou privé, de s’étaler sur les murs et de recouvrir les places ; de s’inviter sur les colonnes de la presse, au même titre qu’aux salons littéraires et artistiques ou encore au sein des cercles du pouvoir. En un mot : d’animer la vie sociale et politique locales. Faut-il y voir une exception aux tendances historiques du moment ? Pas forcément. Comme l’a rappelé Ricardo Salvatore : [...] en comparación con los regímenes europeos contemporáneos, el Estado rosista parecía menos sangriento (producía menos ejecuciones por año) y garantizaba derechos a ser ciudadanos que aquellos Estados no reconocían o que o t o r g a b a n m u y s e l e c t i v a m e n t e. 449 Toutefois, dès la deuxième accession de Rosas au pouvoir et, plus sensiblement encore, à partir de la fin des années 1830, l’historiographie argentine naissante lui fait endosser les habits d’un homme dont toutes les représentations baignent dans le sang et se drapent de rouge. Peu de temps après, au milieu des années 1840, Sarmiento — dont la première édition chilienne de Facundo date de 1845 — alors membre du corps professoral de l’Université du Chili et directeur de l’École Normale, formule et instruit la métaphore politique médullaire de l’histoire argentine. Il le fait sans ambages, en 449 Ricardo Salvatore, « Consolidación del régimen rosista (1835-1852) », in Noemí Goldman (dir.), Nueva Historia Argentina. 343 soulignant combien le régime de Rosas prend une forme dictatoriale et se transforme rapidement en l’obstacle principal au développement raisonné et utile de Buenos Aires et par conséquent également de son peuple, vers des formes plus civilisées, libérales et européenne de gouvernement. On peut reconnaître, dans cette perspective, trois volets fondamentaux au rosisme : Rosas, le sang et la barbarie. Ce sont eux qui ont donné corps et sens à cette période de l’histoire argentine. Tel un triptyque — pensons à l’un de ceux de Jérôme Bosch — de la prise en compte solidaire de ses trois pans dépend la juste compréhension de l’ensemble et la mise en lumière des sens profonds de la propagande d’opposition qui en est résulté. 344
1.3 La fiesta del chivo ou le va-et-vient sempiternel entre citoyens et monstres
« Fuera de aquí os ordeno. [...] Vuestro lugar está allá donde la justicia abate las cabezas, donde se arrancan los ojos, donde se degüella, donde se destruye el licor seminal de los infantes en flor, donde se amputan las extremidades de los miembros, donde se lapida, donde la estaca hundida en el espinazo provoca espantosos chillidos. [...] La morada que conviene a monstruos como vosotros es el antro del león bebedor de sangre » 450. Interrogé, au début des années 1990, sur Don Juan Manuel, voici ce qu’en disait le regretté Félix Luna : « Yo personalmente estoy aburrido del tema Rosas, no me interesa [...]. Hace ya rato que no veo que se traig a n i n g ú n p a p e l , n i n g ú n d o c u m e n t o r e a l m e n t e s i g n i f i c a t i v o » 451. P e n s a i t i l par là que le sujet avait été, historiquement parlant, épuisé ? En matière d’historiographie, le renouveau des points de vue s’opère selon les mêmes mécanismes que ceux de la représentation. Au contraire, la remise en cause permanente du sujet pourrait être qualifiée de remise en liberté toujours renouvelée. La question du point de vue, telle que l’a abordée métaphysiq u e m e n t L e i b n i z 452 — « c o m m e u n e m ê m e v i l l e r e g a r d é e d e d i f f é r e n t s c ô t é s paraît tout autre et est comme multipliée perspectivement, il arrive de même, que par la multitude infinie des substances simples, il y a comme autant de différents univers, qui ne sont pourtant que les perspectives d’un seul selon l e s d i f f é r e n t s p o i n t s d e v u e d e c h a q u e M o n a d e » 453 — , t r o u v e i c i u n a u t r e 450
Eschyle, Las Eumènides, éd. Herbert Weir Smyth, Cambridge, Harvard University Press & Londres, William Heinemann Ltd., 1926. 451 Déclarations de Félix Luna, in Rosas, 200 años, Jorge Coscia (dir.), Buenos Aires, Centro Cultural General San Martín, 1993, VHS. 452 Gottfried Wilhelm Leibniz, Discours de Métaphysique, Paris, Pocket, 1993. 453 Gottfried Wilhelm Leibniz, Monadologie, Paris, GF Flammarion, 1996, p 254-255.
345 espace d’exploitation. Il ne s’agit pas tant d’opposer un pour à un contre que de définir un pourquoi, un comment, un où, un qui. Pour reprendre le titre d’un très bel ouvrage collectif dirigé par Noemí Goldman dans cet effort de renouveler les regards portés sur la période, il sera question ici de s’inspirer des « nuevas miradas a un viejo p r o b l e m a » 454. Il est tout particulièrement intéressant d’analyser ce phénomène dans la perspective de la connaissance supplémentaire à laquelle nous accédons sur les modalités de constitution du peuple argentin en sujet de plein droit de l’histoire. Dans un premier temps, comme l’a souligné Felipe Pigna, c’est un réflexe en quelque sorte schizophrène qui s’est imposé : « la clase se cuenta a sí misma bajo la forma de autobiografía y c u a n t a a l o t r o c o n l a f i c c i ó n » 455. En réalité, c’est plutôt à une mise à la question infligée à ellemême ou à une hantise, que l’on pourrait rapprocher pareil comportement, tant la difficulté semble grande à l’heure de répondre à une interrogation somme toute simple dans sa formulation : comment développer une forme de dialogisme critique et soutenu, cohérent et rénovateur, qui soit susceptible d’explorer autrement des sujets classiques que d’aucuns ont jugé épuisés ? La recherche dans les archives montre qu’il n’est point de sujet entièrement épuisé. Toute lecture appelle une relecture et toute relecture une révision. Or, notre sujet, savoir l’entreprise de spectacularisation systématique du sang par l’opposition, à des fins politiques voire politiciennes, en est une puissante illustration. Il nous reste à expliquer pourquoi. Depuis toujours, la monstruosité a imprégné les représentations sociales, fussent-elles collectives ou individuelles. On en trouve d’innombrables traces dans la mythologie grecque, mais aussi dans les traditions chinoise et hébraïque, voire dans celles plus étroitement 454
Noemí Goldman et Ricardo Salvatore, Caudillismos rioplatenses. Nuevas miradas a un viejo problema, Buenos Aires, Eudeba, 1998. 455 Felipe Pigna, La Argentina en pedazos, Buenos Aires, Ed. de la Urraca, 1993, p. 9. associées au christianisme. Nous avons posé, en introduction, cette question, un peu en guise de boutade : qui est Rosas ? Il est temps de préciser le sens pris par cet attribut. A un Rosas relevant de l’imaginaire collectif, nous serons amenés à en opposer un bien réel, fait de chair et de sang. Pour tout pays s’engageant sur la voie de la constitution de son histoire, il s’agit là d’un sujet d’autant plus central. De tout temps, villes, cités, peuples et civilisations ont peuplé leur imaginaire collectif et leur histoire, pour ainsi dire, de monstres. Dans le cas spécifique de l’imaginaire rioplatense de la première moitié du XIXe siècle, on doit souligner combien fut grande et concomitante l’influence des différentes sources culturelles qui, selon le lieu et le temps, se sont altérées, précisées, au point de prendre une autre forme et de s’armer d’une identité propre. Fiesta del chivo ? Davantage que l’hommage que mérite l’ouvrage de Mario Vargas Llosa, c’est la couverture de son édition française, sur laquelle est reproduit un tableau de Lorenzetti, qui a inspiré ce titre. La période rosiste de l’histoire argentine, en effet, a sans doute été aussi ceci : une sorte de célébration continuée de la monstruosité. Quels en furent les modes, les temps et les lieux? Qui en furent les acteurs ? Qui en furent les arbitres ? L’un des propos de ce chapitre est de faire la lumière sur un tel usage politique de la monstruosité, afin que notre effort se porte également sur la mise au jour des origines, des causes et des signifiés des figures monstrueuses, telles que la plume des exilés de la génération de 1837 les a imposées, essentiellement dans la construction d’une imagerie rosiste contraire à celle divulguée par les canaux officiels. De la même manière que tout homme n’appartenant pas à l’Empire était jadis perçu comme un barbare, il est intéressant de relever que, dès l’Antiquité, le monstre se définit comme celui qui a enfreint les lois propres à la Cité, portant atteinte, par son geste, à la civilisation, épine dorsale et force motrice de l’humanité. Cette matrice détermine dès lors, diront d’aucuns, le fait que tout individu qui s’y soustrait ou l’enfreint ne mérite plus sa place au sein de la communauté des citoyens. Exclu, par la même voie, de la sphère des hommes, le voilà tour à tour inhumain et barbare. C’est l’idée qu’exprime Aristote au chapitre 2 de la première partie de La Politique : [...] car de même qu'un homme, quand il est accompli, est le plus excellent des animaux, de même aussi, séparé de la loi et de la justice, il est le pire de 456 tous. Réduit parfois à la condition d’animal solitaire, l’homme s’expose à une forme d’ostracisme le conduisant à vaguer, esseulé, dans le désert, lieu dépourvu plus que tout autre de civilisation. En cet espace sévère, point de ville ni de civilité qui tiennent, tant le désert est terre de barbares et théâtre sur lequel peuvent se déployer pratiques féroces et violences individuelles. Faut-il s’étonner, dès lors, que Sarmiento y recoure dès l’entame de Facundo ? El mal que aqueja a la República Argentina es la extensión : el desierto la rodea por todas partes, se le insinúa en las entrañas ; la soledad, el despoblado sin una habitación humana, son por lo general los límites incuestionables entre unas y otras provincias. Allí la inmensidad por todas partes : inmensa la llanura, inmensos los bosques, inmensos los ríos, el horizonte siempre incierto, siempre confundiéndose con la tierra entre celajes y vapores tenues que no dejan en la lejana perspectiva señalar el punto en que el mundo acaba y principia el cielo (...). En su embocadura, están situadas dos ciudades, Montevideo y Buenos Aires, cosechando hoy alternativamente las ventajas de su envidiable posición. Buenos Aires está llamada a ser un día la ciudad más gigantesca de ambas Américas. Bajo un clima benigno, señora de la navegación de cien ríos que fluyen a sus pies, reclinada muellemente sobre un inmenso territorio y con trece provincias interiores que no conocen otra salida para sus productos, fuera ya la Babilonia americana si el espíritu de la pampa no hubiese soplado sobre ella y no ahogase en sus mentes el tributo de la ri-
Aristote, La Politique, Paris, J. Vrin, 1995, p. 31. 348 queza que los ríos y las provincias tienen que llevarle siempre. Ella sola, en la vasta extensión argentina, está en contacto con las naciones europeas ; ella sola explota las ventajas del comercio extranjero ; ella sola tiene el poder y las rentas. En vano le han pedido las provincias que les deje pasar un poco de civilización, de industria y de población europea ; una política estúpida y colonial se hizo sorda a estos clamores. Pero las provincias se vengaron, mandándole a Rosas, mucho y dema457 siado de la barbarie que a ellas les sobraba. Ainsi, la République argentine, en général, et Buenos Aires, en particulier, théâtres où s’est noué le drame rosiste étaient-ils conditionnés par ce désert originel. Pourtant exposée, à l’Est, aux lumières européennes, cette région du monde, à en croire Sarmiento, a été longtemps incapable de s’extraire de l’ombre de la barbarie. Mais sans doute ces lignes invitent-elles à pousser plus loin l’analyse. Non contente de la subir passivement, Buenos Aires semble avoir pris un certain plaisir à y goûter continûment ; au point de développer, en quelque sorte, une pratique sophistiquée, voire un art de la barbarie, dont le maître accompli aurait été Rosas. La barbarie sévère de ce désert était donc propice à l’essor d’une vie dépourvue de lois, l’incertitude que cela ne manque d’engendrer, de même que l’enfermement sur soi et sur un discours monocorde et monophone. Car, c’est bien de cela qu’il s’est agi : d’un seul discours et d’une seule voix. Il revenait à celles quelque temps contenues sur l’autre rive du Plata d’y remédier. Dans Les origines de la pensée grecque, Jean-Pierre Vernant soulignait combien le système de la « polis » implique, en premier lieu, une extraordinaire prééminence de la parole sur tous les autres instruments du pouvoir. La parole n’est déjà plus le seul thème rituel, la formule juste, mais bien le débat contradictoire, la discussion, l’argumentation. Par là, elle devient l'outil politique par excellence, la clé de toute autorité dans l'Etat, ainsi que le moyen de commandement et de domination sur autrui. Il y a donc, depuis fort longtemps, un lien fondateur entre parole, discours, cité et civilisation. Face à eux : la barbarie et le monstre. 457 Domingo Faustino Sarmiento, Facundo, Buenos Aires, Espasa-Calpe, 1962, p. 912. 349 Dans le cas précis de l’appareil propagandiste rosiste, le vice est poussé un peu plus loin, son discours s’inscrivant dans une logique monopolistique — dont il faudra exposer les tenants et aboutissants — capable, sinon désireuse, de faire taire tout échange contradictoire porté par les assemblées, au profit d’une forme dégénérée de l’action et de la vie politiques : celle-là même qui caractérise la tyrannie, entendue comme forme monstrueuse de la monarchie. La parole s’impose alors à la fois comme instrument de pouvoir et redoutable levier au service d’une usurpation subtile et silencieuse de la légalité et du droit. Rosas, tyran ? De quel tyran parle-t-on ? A en croire la tradition, le tyran n’est qu’un roi monstrueux, rebut d’un Etat absent ou en panne. De ce point de vue, il est tout sauf émanation de la légalité. Et le monologue du monstre asservit l’individu, poussé à piller, pour ainsi dire, les droits des citoyens en leur ôtant tout accès à la parole. Or point de sociabilité, de citoyenneté ou de civilité possibles dans la polis, sans accès à un verbe différencié. En l’absence de mots, par conséquent, privés de tout usage du langage et, de ce fait, dépouillés de toute humanité, les hommes sombrent successivement dans l’animalité, la bestialité, la monstruosité.
1.4
Pour une vision panoramique et généalogique des monstres « rioplatenses » «Quiconque lutte contre des monstres devrait prendre garde, dans le combat, à ne pas devenir monstre lui-même
.
Et quant à celui qui scrute le fond de l'abysse, l'abysse le scrute à son 458 tour
». Comme l’a souligné Jean Riolan, dans un texte relativement peu c o n n u d u X V I I e s i è c l e 459, l e m o n s t r e e s t f o n d a m e n t a l e m e n t p e r v e r s i o n de l’ordre. Une perversion, précise-t-il, capable de garantir, néanmoins, la continuité des causes naturelles et une rupture avec la vertu, une suspension de la santé du peuple ou bien même de l’autorité du roi. Le « logos » occidental, rejeton mal poli du « logos » grec, a hérité de sa matrice antique un mépris féroce envers tout ce qui est susceptible de porter atteinte aux grâces et bontés des arts cultivés par les hommes civilisés. Au tournant du XVe siècle, le continent américain se livre au regard émerveillé des conquistadors comme un vaste désert, où devait avoir trouvé refuge le diable, après qu’il fut chassé des saintes terres du Seigneur, en janvier 1492. Ainsi, la vieille lutte contre les forces du mal, en général, et les néophytes, en particulier, s’est-elle exportée, en quelque sorte malgré elle, de l’autre côté de l’Atlantique. Or, cette bataille opposant les hommes aux hérétiques se livre également et, dans une grande mesure, sur le terrain du sang. Dans un bel ouvrage, consacré à la découverte que le je fait de l’autre dans le cadre de la colonisation de l’Amérique, Tzvetan Todorov souligne avec force finesse le caractère paradoxal des modalités de ce processus au long cours. Ainsi peut-on lire, au tout début du premier chapitre : des . C’est donc, paradoxalement, de la mentalité médiévale de Colon qui lui fait découvrir l’Amérique et inaugurer l’ère moderne. Et il ajoute : [...] Colon lui-même n’est pas un homme moderne, et ce fait est pertinent dans le déroulement de la découverte, comme si celui qui allait donner naissance à un monde nouveau ne pouvait pas, déjà, lui appartenir . La modernité à laquelle invite cette nouvelle phase de l’histoire de l’humanité est alors, en effet, loin de s’exprimer pleinement dans tous les domaines. Le développement des Estatutos de Limpieza de Sangre, en est une belle illustration. Par la mise en œuvre de cette trouvaille politico-juridique, dont les premières manifestations remontent à la fin du XVe siècle, en réponse notamment à l’insurrection de Tolède de 1449, il était fait interdiction aux « conversos », ainsi qu’à leur descendance, d’occuper dans la péninsule ibérique — elle-même en voie de formation — des charges dans un certain nombre d’institutions religieuses, universitaires, militaires, voire civiles. Il fallut attendre le XVIe siècle pour qu’ils fussent plus systématiquement mis en œuvre dans les royaumes espagnols et appliqués dans les nouvelles possessions américaines. Il serait faux, pourtant, de prétendre que la Couronne ait soutenu leur développement systématique. De fait, elle ne reconnut jamais aux statuts la dimension de loi du royaume, ni même d’une loi générale s'imposant à tous. Elle demeura, en toutes circonstances, du domaine du privé ; d’ailleurs, il y eut des institutions espagnoles qui firent le choix de ne pas l'adopter, suivant en cela le conseil de Gracián qui dénonçait, dans son Oráculo Manual, ceux qui rédigeaient et lisaient ces fameux livres Verdes : 460 Tzvetan Todorov, La conquête de l’Amérique, Paris, Seuil, 1982, p. 22. 352 C'est annoncer que l'on n'est pas très propre que de patauger dans la fange d'autrui. Certains voudraient, avec les taches des autres, tâcher de cacher, sinon de laver, les leurs ; ou du moins ils s'en consolent, consolation de fous. Ils ont toujours la bouche qui pue, indice que c'est l'égout par où débouchent les immondices de la rue. Dans ces cloaques, qui plus fouille plus se souille. Il y a peu de gens qui échappent à quelque vice d'origine, soit de droite, soit de gauche ; on ne connaît pas bien les fautes de ceux qui nous sont mal connus. Que l'homme attentif se garde bien de dresser un registre d'infamies, car c'est se dresser en détestable censeur qui, pour être sans vice, n'en est pas moins sans cœur 461. Dans ces textes, le sang est défini par un certain nombre de catégories faisant allusion à la propreté. Ainsi, tout homme jugé porteur d’un sang sale ou contaminé se voyait exclu « ipso facto » de l’appareil étatique naissant. A l’instar de toute tache, il n’était cependant pas exclu qu’elle puisse être lavée. C’était, d’ailleurs, un préalable nécessaire à l’adoption des manières et de la tradition de celui qui en était dépourvu. De sorte que, dans cette perspective, laver le sang, cela revenait immanquablement à se convertir, avant tout, à l’histoire des autres et à accepter pleinement l’altérité. A défaut de l’accepter, on s’exposait à une vie monocorde. Rapidement donc, l’Amérique s’est affirmée comme une scène ou, si l’on veut, comme un théâtre, sur lesquels se sont traditionnellement opposés des couples antinomiques : les purs faisaient face aux impurs, les corps propres s’opposaient aux corps souillés, le juste verbe chrétien au fielleux discours hérétique ; enfin : la ville à la campagne. C’est pourquoi à la langue du chrétien est venu s’opposer celle du diable, figure monstrueuse par excellence. En un mot: très tôt le rejet de la monstruosité, de l’animalité et de tout ce qui effraie, surprend ou saisit, a fait l’objet d’un rejet et a parfois été durement combattu. Tel est, en réalité, le point de départ de toute la réflexion menée par Sarmiento dans Facundo. De nouveau confrontées au couple barbarie et civilisation, moteur pour comprendre l’histoire de la jeune Ré Baltasar Gracián, Oráculo Manual y arte de Prudencia, Emilio Blanco (éd.), Madrid, Cátedra, 1995. 353 publique argentine, quelques considérations, sur ce point, s’imposent. Peut-être pourrait-on commencer par l’éclairer à la lumière de la notion également centrale de représentation, en nous demandant ce qui, dans sa démarche, a pu pousser Sarmiento à puiser dans une vieille tradition coloniale la clé ouvrant la voie à une connaissance profonde de la réalité argentine. A cette fin, il nous a semblé particulièrement éclairant de nous intéresser, « a contrario », à l’empreinte et à la trace laissées par l’Europe civilisée, en général, et la Ville Lumière, en particulier, sur certains des membres les plus illustres de la génération de 1837. Parmi eux, Esteban Echeverría, dont la fascination pour Paris l’y avait conduit à la fin de l’hiver 1827. Après voir étudié le latin, le français, la philosophie et le dessin au sein du « Departamento de Estudios Preparatorios » de la toute jeune Université de Buenos Aires, l’auteur de La cautiva, décida de quitter Buenos Aires, afin de parfaire son éducation en Europe. Le 17 octobre 1825, il quitta sa ville natale à bord de La Joven Matilde et, après une t r a v e r s é e 462 q u e l q u e p e u t u m u l t u e u s e , a c c o s t a a u p o r t d u H a v r e . S i t ô t arrivé à Paris, le 6 mars 1826, il trouva fort à faire dans l’Athénée, institution locale de l’époque, dont il livre une description édifiante dans une lettre adressée à son frère José María, le 22 du même mois : He entrado en una institución llamada Ateneo, donde se dictan de noche diferentes cursos de estudios por hábiles profesores : tiene los papeles públicos y una biblioteca por el módico precio de 60 francos por año. Puede uno concurrir desde las 8 de la mañana hasta las 11 de la noche. La entrada a esta institución me será muy útil porque tomaré conocimientos en los ratos desocupados sobre varias ciencias, a las que no tendré tiempo de dedicar un estudio particular. Además he tomado un maestro particular de matemáticas, y he entrado en una escuela de dibujo. Todo mi tiempo está empleado en trabajar, y espero sacar toda ventaja posible de mi posición. He padecido bastante, como habrás visto por mis cartas ; pero felizmente al presente me hallo ya muy bien, y aun casi curado de las enfermedades y dolencias que me agobiaban [...]. 462 Des années plus tard, dans El ángel caído, poème épique d’inspiration byronienne, Echeverría rendit hommage à cette folle traversée. 354 Ahora ya me veo libre, en el camino de la gloria, y luchando contra mi destino : espero triunfar y mostrar que los hombres no se deben conducir por el camino de la felicidad, tratándolos como esclavos y degradándolos, sino haciéndoles conocer sus derechos y estimulándolos para que tomen el camino del honor y de la gloria [...]. Has visto ya nuestra suerte después de la muerte de madre. Esforzándonos por complir con nuestros deberes, observando una conducta y, por último, sacrificando nuestro interés y existencia ; ¿qué fruto hemos sacado ? ¿qué hemos sido en la sociedad ? Nada : hemos perdido nuestros mejores amigos, y a quiénes más debíamos, nos hemos hecho casi insociables, y se han borrado de nuestra memoria los sabios principios de educación que nuestros padres nos legaron. A ti te han sido aún más trascendentales los males. Perdóname hermano mis delirios : cuando considero tales objetos, mi espíritu a la par de mi pluma se extravían. Ocúltalos en el seno de tu corazón, pues que son arrancados por el amor fraternal. Coraje, hermano mío, disípese de tu imaginación toda idea de tristeza y de destrucción, piensa en profundizar tu carrera, y en conciliar tus intereses mientras tu hermano trabaja para ayudarte y por resarcir lo perdido 463. Fascination, projection, interprétation, déception, adaptation. Tout n’est donc affaire que de perspective comme le rappellent, en divers passages des Lettres persanes, les échanges entre Rica et Usbek.
| 37,579
|
tel-04626945-KHOJET_2006-12-04.txt_5
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
Commande vectorielle d'une machine asynchrone doublement alimentée (MADA) : optimisation des pertes dans les convertisseurs, reconfiguration de la commande pour un fonctionnement sécurisé. Energie électrique. Institut National Polytechnique (Toulouse), 2006. Français. ⟨NNT : 2006INPT022H⟩. ⟨tel-04626945⟩
|
None
|
French
|
Spoken
| 7,210
| 11,653
|
LSE-LEEI 84 Chapitre 3 Commande vectorielle avec et sans capteur de vitesse de la MADA
160 -130 W-observée W-référence W-réelle 155 -140 Vitesse (rad/s) Vitesse (rad/s) 150 145 -145 140 -150 135 -155 130 0.8 W-observée W-référence W-réelle -135 1 1.2 1.4 1.6 1.8 2 2.2 -160 4 2.4 4.5 5 5.5 Temps (s) 6 6.5 7 Temps (s) 10 W-observée W-référence W-réelle Vitesse (rad/s) 5 0 -5 -10 -15 8 8.5 9 9.5 10 10.5 11 Temps
(
s
) Figure.3.38 : Effet d’agrandissement sur la variation de la vitesse de la machine et sa référence
L’erreur statique entre la vitesse observée et celle mesurée (figure 3.39) est quasiment identique à celle trouvée avec la première méthode (figure 3.33) c'està-dire de l’ordre de 1 rad/s comme valeur maximale soit 0.6% de la vitesse nominale de la MADA 10 8 6 Erreur (rad/s) 4 2 0
-2
-4
-6 -8 -10 0 1 2 3 4 5 6 7 8 9 10 11
Temps
(s) Figure.3.39 : Erreur entre la vitesse réelle et celle observée de la MADA
Les valeurs maximales du couple électromagnétique et de sa référence présente sont plus importantes qu’avec la première méthode. Ceci est dû aux impacts du couple de charge plus importants avec la seconde méthode que la première. Ces impacts sont aussi sur courants isq et irq (figure 3.41).
LSE-LEEI 85 Chapitre 3 Commande vectorielle avec et sans capteur de vitesse de la MADA
Le couple de charge (figure 3.40) observé répond correctement à sa référence. Comme dans le cas précédent, on observe des pics dus à la variation de la vitesse de référence de la machine. 20 12 Cem Cem-réf Cr-est Cr-réf 10 15 8 Couple (Nm) Couple (Nm) 10 5 6 4 0 2 -5 0 -10 0 1 2 3 4 5 6 7 -2 0 8 1 2 3 Temps (s) 4 5 6 7 8 Temps
(s) Figure.3.40 : Variation du couple électromagnétique et du couple de charge observé et leurs références respectives 6 isq irq
4 Courant (
A
) 2 0 -2 -4 -6 -8 -10 0 1 2 3 4 5 6 7 8 9 10 11 Temps
(s) Figure.3.41 : Variation des courants irq et isq
La figure 3.42 présentant les variations des courants ird et irq ainsi que les composantes d et q du flux rotorique, illustre bien la bonne
magné
tisation
de la machine par le stator
ainsi
que l’orientation du flux rotorique suivant l’axe direct. 0.9 6 isd isd-réf ird
ird-réf 5 0.7 4 0.6 Flux ( Wb) Courant (A) phi-rd phi-rq 0.8 3 2 0.5 0.4 0.3 0.2 1 0.1 0 0 -1 0 1 2 3 4 5 Temps (s) 6 7 8 -0.1 0 1 2 3 4 5 6 7 8 Temps
(s) Figure.3.42: Variation de isd, ird, φrd et φrq LSE-LEEI
Chapitre 3 Commande vectorielle avec et sans capteur de vitesse de la MADA
Les performances dynamiques de l’observateur de Luenberger appliqué aux deux méthodes de commandes vectorielles, montrent similitude, sauf au niveau de l’impact du couple de charge sur la vitesse. Il est nécessaire maintenant d’étudier la robustesse de cet observateur pour les deux structures de commande. 3.6. Etude de la robustesse de l’observateur de Luenberger pour la vitesse et le couple de charge
La robustesse de l’observateur de Luenberger pour la vitesse et le couple de charge est définie par rapport à (pour les deux structures de commande) : - La variation des paramètres mécaniques de la machine : moment d’inertie et le coefficient de frottement. - L'effet d’un bruit de mesure. - L'erreur de mesure sur la position estimée.
3.6.1. Sensibilité par rapport aux variations des paramètres mécaniques de la machine
Nous avons procédé à une variation du moment d’inertie de 50 % à 150 % de sa valeur nominale. Les grandeurs étudiées sont respectivement : le couple de charge et la vitesse de la machine observés, le couple électromagnétique et les composantes du flux rotorique de la machine. La figure 3.43 montre la variation de la vitesse réelle et de la vitesse observée de la machine pour différentes valeurs du moment d’inertie (effet d’agrandissement sur la figure 3.44). La régulation de la vitesse de la machine est affectée par la variation de la valeur du moment d’inertie. Pour des valeurs inférieures à la valeur nominale du moment d’inertie, la réponse de la vitesse est plus rapide et, inversement, pour des valeurs du moment d’inertie supérieures à la valeur nominale, le système répond plus lentement à la consigne de la vitesse. Toutes ces réactions sont dues aux performances de la régulation de la vitesse. L’erreur statique entre la vitesse observée et la vitesse réelle de la MADA reste très minime. LSE-LEEI 87 Chapitre 3 Commande vectorielle avec et sans capteur de vitesse de la MADA
200 200 W-observée W-réelle W-référence 100 100 50 50 0 -50 0 -50 -100 -100 -150 -150 -200 0 1 2 3 4 5 6 Temps (s) 7 8 9 10 W-observée W-référence W-réelle 150 vitesse (rad/s) Vitesse (rad/s) 150 -200 0 11 1 2 3 4 200 8 9 10 11 200 W-observée W-réelle W-référence 150 100 100 50 50 0 -50 0 -50 -100 -100 -150 -150 1 2 3 4 5 6 Temps (s) 7 8 9 10 W-observée W-réelle W-référence 150 Vitesse (rad/s) Vitesse (rad/s) 7 J = Jn J = 50% Jn -200 0 5 6 Temps (s) 11 -200 0 1 2 3 4 5 6 Temps (s) J = 150% Jn 7 8 9 10 11 J = 200%
Jn Figure.3.43 : Variation de la vitesse de la machine et sa référence (Méthode1) 160 160 W-observ
ée W-
ré
elle W-référence 155 W-observée W-référence W-réelle 155 150 vitesse (rad/s) Vitesse (rad/s) 150 145 140 135 145 140 135 130 130 125 120 1 1.5 2 2.5 3 125 1 1.5 Temps (s) 2 J = 50% Jn 160 W-observée W-réelle W-référence 155 W-observée W-réelle W-référence 155 150 150 Vitesse (rad/s) Vitesse (rad/s) 3 J = Jn 160 145 140 145 140 135 135 130 130 125 2.5 Temps (s) 1 1.5 2 Temps (s) 2.5 3 125 1 1.5 2 2.5 3 Temps (s) J = 150% Jn J = 200%
Jn Figure.3.44 : Effet d’agrandissement sur la variation de la vitesse de la machine et sa référence
Chapitre 3 Commande vectorielle avec et sans capteur de vitesse de la MADA
Pour la même application avec la seconde thode de la commande, l’impact de la variation du moment d’inertie sur l’impact du couple de charge est identique au cas précédent (plus J augmente plus la valeur de l’impact du couple de charge diminue). Néanmoins la dynamique de la vitesse de la machine reste la même pour l’ensemble des variations du moment d’inertie. En effet, avec la première méthode, plus le moment d’inertie augmente plus la réponse de la vitesse de la machine est lente (ce qui était prévisible). Avec la seconde méthode et grâce à la robustesse du régulateur de la vitesse, même si le moment d’inertie varie, le temps de réponse de la machine est identique. L’accélération de la machine est donc constante, donc l’impact de la variation du moment d’inertie sur le couple de charge observé sera différent de celui noté dans le premier cas.
200 200 W-observée W-réf W-réelle 150 100 Vitesse (rad/s) Vitesse (rad/s) 100 50 0 -50 50 0 -50 -100 -100 -150 -150 -200 0 W-observée W-référence W-réelle 150 1 2 3 4 5 6 7 8 9 10 -200 0 11 1 2 3 4 Temps (s) 5 J = 50% Jn 8 9 10 11 200 W-observée W-réf W-réelle 150 W-observée W-référence W-réelle 150 100 Vitesse (rad/s) 100 Vitesse (rad/s) 7 J = Jn 200 50 0 -50 50 0 -50 -100 -100 -150 -150 -200 0 6 Temps (s) 1 2 3 4 5 6 7 Temps (s) J = 150% Jn 8 9 10 11 -200 0 1 2 3 4 5 6 7 8 9 10 11 Temps (s) J = 200% Jn
Figure.3.45 : Variation de la vitesse de la machine et sa référence (Méthode2)
Les figures 3.44 et 3.45 montrent les variations du couple de charge pour différentes valeurs du moment d’inertie. La variation du moment d’inertie, perturbe uniquement le régime transitoire de l’estimation du couple de charge. Avec la première méthode la réponse de la machine est plus lente lorsque j augmente par contre avec la seconde celle-ci reste constant donc pour les valeurs du moment d’inertie de 150%Jn et 200%Jn les perturbations au niveau du couple de charge avec la seconde méthode seront plus importantes qu’avec la première. LSE-LEEI 89 Chapitre 3 Commande vectorielle
avec
et
sans capteur de vitesse de la MADA 14 20 C-charge-observée data2 C-charge-réel 15 10 8 Couple (Nm) 10 Couple (Nm) C-charge-observé data2 C-charge-réel 12 5 6 4 2 0 0 -5 -2 -10 0 1 2 3 4 5 6 Temps (s) 7 8 9 10 -4 0 11 1 2 3 4 5 6 Temps (s) J = 50% Jn 9 10 11 14 C-charge-observé C-charge-réel 12 C-charge-observé C-charrge-réel 12 10 10 8 8 Couple (Nm) Couple (Nm) 8 J = Jn 14 6 4 6 4 2 2 0 0 -2 -2 -4 0 7 1 2 3 4 5 6 Temps (s) 7 8 9 10 -4 0 11 1 2 J = 150% Jn 3 4 5 6 Temps (s) 7 8 9 10 11 J = 200% Jn
Figure.3.46 : Variation du couple de charge de référence et observé (Méthode 1)
20 12 C-charge-observé C-charge-de-référence Cr-est Cr-réf 10 15 8 Couple (Nm) Couple (Nm) 10 5 6 4 0 2 -5 -10 0 0 1 2 3 4 5 6 7 8 9 10 -2 0 11 1 2 3 Temps (s) 4 5 6 7 8 Temps (s) 14 C-charge-observé C-charge-de-référence 12 C-charg-observé C-charge-de-référence 14 12 10 Couple (Nm) Couple (Nm) 10 8 6 4 8 6 4 2 2 0 0 -2 0 -2 0 1 2 3 4 5 6 Temps (s) 7 8 9 10 11 1 2 3 4 5 6 7 8 9 10 11 Temps (s)
Figure.3.47 : Variation du couple de charge de référence et observé (Méthode 2) LSE
Chapitre 3 Commande vectorielle avec et sans capteur de vitesse de la MADA
En faisant varier le moment d’inertie, l’équation mécanique est
: dΩ + f n Ω = C em − C r, avec J = J n + ΔJ et C r = C 0 J dt dΩ ⎛ dΩ ⎞ ⇒ Jn + f n Ω = C em − ⎜ ΔJ + C0 ⎟ dt dt ⎝ ⎠ Avec : dΩ C r1 = ΔJ + C0 dt Où C0 est le couple de charge réel, ΔJ > 0 pour J > Jn et ΔJ < 0 pour J < jn
Pendant le régime transitoire de la vitesse de la machine, le couple de charge estimé n’est plus C0 mais Cr1, vu la nouvelle valeur du moment d’inertie J. Pour J < Jn, le couple dû à la composante ΔJ dΩ/dt est négatif pour les vitesses croissantes, et positif pour les vitesses décroissantes. Donc en régime transitoire, et si la vitesse de la machine croît, le couple estimé est inférieur au couple réel et pour les vitesses décroissantes, le couple estimé est supérieur au couple réel. Pour J < Jn, l’interprétation est la même mais les réactions sont inversées. Le tableau 3.1 suivant résume l’effet d’une variation du moment d’inertie sur l’estimation du couple de charge.
Ω Ω ΔJ >0 >0 J > Jn dΩ/dt ΔJ dΩ/dt >0 >0 <0 <0 Cr1, C0 Cr1< C0 Cr1> C0 ΔJ <0 <0 J < Jn dΩ/dt ΔJ dΩ/dt >0 <0 <0 >0 Cr1, C0 Cr1> C0 Cr1< C0
Tableau 3.1 : Effet d’une variation du moment d’inertie sur l’estimation du couple de charge
Le tableau compare l’erreur statique entre le couple de charge de référence et celui observé pour les deux méthodes de commande.
Ω Ω Méthode 1 ΔJ = -50% ΔJ = 50% ΔJ = 100% 68% 60% 105% 66% 40% 60% Méthode 2 ΔJ = -50% ΔJ = 50% ΔJ = 100% 68% 60% 120% 66% 60% 118%
Tableau 3.2 : Comparaison entre l’erreur statique sur le couple de charge entre la première et la seconde méthode LSE-LEEI Command vector avec et sans capteur de vitesse de la MADA
Les résultats confirment bien l’interprétation donnée précédemment. La figure 3.48 montre l’évolution respectivement de la vitesse de la machine, du couple
électromagnétique et du couple de charge observé pour des valeurs du coefficient de frottement variant entre 50% et 200%. L’effet de la variation du coefficient de frottement est minime sur les performances de la régulation de la vitesse. De même que dans le cas précédent, l’erreur entre la vitesse réelle et la vitesse observée est faible.
150 150 100 100 50 50 vitesse (rad/s) 200 Vitesse (rad/s) 200 0 -50 0 -50 -100 -100 -150 -150 -200 0 1 2 3 4 5 6 Temps (s) 7 8 9 10 -200 0 11 W-observée W-référence W-réelle 1 2 3 4 5 6 Temps (s) 7 8 f = 50% fn 11 200 W-observée W-réel W-référence 150 50 50 Vitesse (rad/s) 100 0 -50 0 -50 -100 -100 -150 -150 1 2 3 4 5 6 Temps (s) 7 f = 150% fn 8 9 10 W-observée W-réelle W-référence 150 100 Vitesse (rad/s) 10 f = fn 200 -200 0 9 11 -200 0 1 2 3 4 5 6 Temps (s) 7 8 9 10 11 f = 200% fn
Figure.3.48 : Variation de la vitesse observée et réelle de la machine et sa référence
Les figures 3.49 et 3.50 illustrent la variation du couple de charge observé et de référence pour différentes valeurs du coefficient de frottement. Nous avons choisi un couple de charge de référence de 50% du couple nominal afin de mieux illustrer l’effet de la variation du coefficient de frottement sur l’observation du couple de charge. Nous remarquons qu’en régime établi, il existe une erreur statique entre le couple de charge estimé et le couple de charge réel. L’effet du coefficient de frottement intervient uniquement en régime établi donc indépendamment de la dynamique de la vitesse mais tout simplement de la valeur de la vitesse elle-même. L’erreur observée sur le couple de charge sera identique pour les deux méthodes. LSE-LEEI 92 Chapitre 3 Commande vectorielle avec et
sans
cap
teur
de
vitesse
de la
MADA
8 8 C-charge-de-référence C-charge-observé 6 6 4 4 Couple (Nm) Couple (Nm) C-charge-de-référence C-charge-observé 2 2 0 0 -2 -2 -4 0 1 2 3 4 5 6 7 8 9 10 -4 0 11 1 2 3 4 5 Temps (s) 6 7 8 10 11 8 8 C-charge-de-référence C-charge-observé C-charge-de-référence C-charge-observé 6 6 4 4 Couple (Nm) Couple (Nm) 9 Temps (s) 2 2 0 0 -2 -2 -4 0 1 2 3 4 5 6 7 8 9 10 -4 0 11 1 2 3 4 5 6 7 8 9 10 11 Temps (s) Temps (s)
Figure.3.49 : Variation du couple de charge de référence et observé (Méthode 1)
7 7 C-charge-observé C-charge-de-référence 5 5 4 4 3 2 3 2 1 1 0 0 -1 -1 -2 0 C-charge-observé C-charge-de-référence 6 Couple (Nm) Couple (Nm) 6 1 2 3 4 5 6 7 8 9 10 -2 0 11 1 2 3 4 Temps (s) 7 7 8 9 10 11 5 5 4 4 3 2 3 2 1 1 0 0 -1 -1 1 2 3 4 5 6 Temps (s) 7 8 9 10 C-charge-observé C-charge-de-référence 6 Couple (Nm) Couple (Nm) 6 7 C-charge-observée C-charge-de-référence 6 -2 0 5 Temps (s) 11 -2 0 1 2 3 4 5 6 7 8 9 10 11 Temps (s)
Figure.3.50 : Variation du couple de charge de référence et observé (Méthode 2)
LSE-LEEI 93 Chapitre 3 Commande vectorielle avec et sans capteur de vitesse de la MADA
En faisant varier le coefficient de frottement, l’équation mécanique est : d
Ω + FΩ = C em
−
r, avec F = f n + Δf et C r = C 0 dt dΩ ⇒ Jn + f n Ω = C em − (ΔfΩ + C 0 ) dt C r2 = ΔfΩ + C 0 Jn
L’erreur sur la valeur du coefficient de frottement, introduit une nouvelle composante pour le couple de charge définie par : ΔfΩ. Le couple de charge alors estimé n’est plus C0 mais Cr2. C’est cette composante qui introduit l’erreur sur l’estimation du couple de charge. Dans ce cas, l’erreur dépend uniquement du coefficient Δf. Ω Ω Δf = -50% 4% 4% Méthode 1 Δf = 50% Δf = 100% 4% 10% 4% 10% Δf= -50% 4% 4% Méthode 2 Δf = 50% Δf = 100% 4% 10% 4% 10%
Tableau 3.3 : Comparaison entre l’erreur statique sur le couple de charge entre la première et la seconde méthode
Les erreurs enregistrées pour différentes valeurs du coefficient de frottement sur la valeur du couple de charge observé sont identiques pour la première et la seconde méthode. Ce qui confirme que, dans ce cas, la robustesse de l’observateur envers les variations du coefficient de frottement est indépendante de la loi de commande choisie.
3.6.2. Sensibilité par rapport à un bruit de mesure
Il s’agit d’introduire un bruit aléatoire de valeur moyenne nulle d’amplitude σ, au niveau des grandeurs mesurables permettant l’estimation de la vitesse et intervenant dans l’observateur. La densité spectrale de puissance est définie par : DSP = σ 2 Te Dans notre cas il s’agit des courants statorique et rotorique. L’introduction d’un tel bruit, ne perturbe pas les performances de l’observateur. Néanmoins au niveau des grandeurs observées : vitesse et couple de charge et au niveau du couple électromagnétique nous observons l’effet de ce dernier. Chapitre 3 Commande vectorielle avec et sans capteur de vitesse de la MADA
160 200 W-réelle W-observée W-estimée W-réelle W-observée W-estimée 150 155 100 Vitesse (rad/s) Vitesse (rad/s) 150 50 0 -50 145 140 -100 135 -150 -200 0 1 2 3 4 Temps (s) 5 6 7 8 130 0.8 1 1.2 1.4 Temps (s) 1.6 1.8 12 14 10 12 8 10 6 8 Couple (Nm) Couple (Nm)
Figure.3.52 : Variation de la vitesse observée et réelle de la machine et sa référence 4 2
6 4 2 0
-2 0 -4 -2 -6 0
C-charge-observé
C
-
charge
-
réel 1 2 3 4 Temps (s) (
a
) 5 6 7 8 -4 0 1 2 3 4 Temps (s) 5 6 7 8
(b) Figure.3.53 : Variation du couple électromagnétique (a) et du couple de charge réel et observé
Conclusion Au cours de ce chapitre, nous avons étudié la commande avec puis sans capteur de vitesse de la machine asynchrone à rotor bobiné. Pour un fonctionnement avec capteur de vitesse, nous avons étudié les performances de deux algorithmes différents du contrôle vectoriel. La seconde méthode semble être plus intéressante dans la mesure où elle offre l’opportunité d’utiliser quatre régulateurs de courants identiques (pour le stator et le rotor). De plus, elle présente des termes de compensation moins importants que la première. Néanmoins ses points faibles résident dans la complexité des différentes fonctions de transfert qui représentent le système et donc dans la difficulté supplémentaire lors de son implantation sur support numérique. Le second point faible de cette méthode est la difficulté de reconfigurer la commande (passage d’un fonctionnement MADA à un fonctionnement machine à cage avec une des armatures en court-circuit) où les fonctions de transfert ne sont plus valables, ce qui représente le point fort de la première méthode (ceci sera développé plus en détail dans le chapitre suivant).
LSE-LEEI 95 Chapitre 3 Commande vectorielle avec et sans capteur de vitesse de la MADA
Le fonctionnement sans capteur de vitesse montre de bonnes performances tant à vitesse nominale qu’à faible vitesse (fonctionnement moteur et générateur) de la MADA où la mesure des courants côté stator et côté rotor représente un avantages pour l’estimation par la suite de la vitesse. Les performances de l’observateur de la vitesse et du couple de charge sont satisfaisantes et quasiidentiques pour les deux méthodes.
LSE-LEEI 96 Chapitre 4 Reconfiguration du mode de fonctionnement de la MADA suite à des défauts convertisseurs CHAPITRE 4 Reconfiguration du mode de fonctionnement de la MADA suite à des défauts convertisseurs statiques Introduction
L’objectif de ce chapitre est l’étude des possibilités de reconfiguration du mode de fonctionnement de la machine asynchrone doublement alimentée en présence d’un défaut de convertisseurs statiques. Il est tout d’abord important de rappeler que la machine asynchrone est aujourd’hui la machine la plus utilisée dans les applications industrielles. Grâce au développement des techniques de commande de cette machine et au développement des semi-conducteurs, la machine asynchrone occupe de plus en plus une place centrale dans les processus industriels à vitesse variable. Ainsi toute perturbation affectant l’entraînement électrique peut amener l’arrêt total de l’ensemble du processus. Il est donc nécessaire de trouver des stratégies permettant de maintenir le fonctionnement de l’entraînement électrique même après un défaut de semi-conducteur. Dans ce cadre, plusieurs études proposent des stratégies de reconfiguration basées sur des systèmes redondants. La redondance est liée soit au nombre de phases utilisées (fonctionnement avec deux phases), soit à l’utilisation du neutre de la machine, soit au nombre de circuits de puissances utilisées. Néanmoins, pour la machine asynchrone à cage, si l’onduleur est endommagé, tout l’entraînement électrique doit être arrêté. La machine asynchrone à double alimentation peut alors présenter des solutions concrètes à ces types de défauts, de par la redondance des circuits de puissance au stator et au rotor. L’un des avantages de la MADA est de pouvoir assurer une continuité de service lors d’un défaut au niveau de l’un des deux onduleurs. La reconfiguration du système de puissance permet de revenir à un mode de fonctionnement de machine asynchrone avec rotor ou stator en court – circuit. Ceci permet à l’ensemble de l’entraînement électrique de continuer à fonctionner même dans un état dégradé et évite l’arrêt total du variateur. Ceci constitue un atout considérable pour des applications en traction ferroviaire ou en propulsion navale où l’arrêt immédiat et définitif dispositif est à éviter à tout prix. Nous nous intéressons à la reconfiguration du mode de fonctionnement de la MADA suite à deux types de défauts, perte de la tension de la capacité du filtre d’entrée de l’un des deux onduleurs et défaut de court-circuit d’un bras de l’un des deux onduleurs.
Chapitre 4 Reconfiguration du mode de fonctionnement de la MADA suite à des défauts convertisseurs
La stratégie proposée consiste à éliminer l’onduleur défectueux et à ramener le fonctionnement de la machine à celui d’une machine à rotor ou stator en courtcircuit avec un contrôle vectoriel classique. Cette étude montrera qu’il est alors possible de maintenir un fonctionnement acceptable de la machine tant au niveau de ses grandeurs électriques que mécaniques (courant, couple, flux, tensions). Le fonctionnement est acceptable tant que les valeurs des courants et des tensions demeurent inférieures aux valeurs maximales admises. Il convient aussi de vérifier que la vitesse et du couple varient faiblement par rapport à leurs valeurs d’avant le défaut. Dans cette étude, la commande par une seule armature montre plus d’avantages qu’une commande mixte dans la mesure où la gestion du défaut est plus facile, si le défaut apparaît sur l’armature qui n’assure pas le fluxage. La reconfiguration du mode de fonctionnement de la machine, permettant d’assurer le passage d’une machine doublement alimentée vers une machine avec un rotor ou un stator en court-circuit, se fait à deux niveaux, le ciruit de puissance et la commande de la machine : - - Les circuits de puissance : où la continuité des grandeurs électriques (courant et flux) doit être respectée. Il faut mettre en place un dispositif d’électronique de puissance (commutateur, contacteur, résistances,...etc.) assurant ce passage. La commande de la machine : il faut effectuer le passage du contrôle vectoriel de la MADA vers un contrôle vectoriel classique d’une machine asynchrone conventionnelle. La figure 4.1 illustre les deux modes de reconfiguration possibles du fonctionnement de la machine, suivant le défaut : - Soit une alimentation par le stator avec un rotor en court-circuit : défaut de l’onduleur lié au rotor. Soit une alimentation par le rotor avec un stator en court-circuit : défaut de l’onduleur lié au stator.
Côté stator MAS
(a
)
Côté stator Côté rotor MADA Côté rotor Fonctionnement sain Fonctionnement après MAS Côté stator Côté rotor (
b
)
Figure 4.1. Reconfiguration du mode de fonctionnement de la MADA LSE LEEI
Chapitre 4 Reconfiguration du mode de fonctionnement de la MADA suite à des défauts convertisseurs 4.1. Reconfiguration d’une loi de commande d’une MADA
La loi de commande de la MADA est une commande vectorielle par orientation du flux rotorique. Dans un premier temps, il faut analyser les modes de fonctionnement de la machine associés aux commandes. Le changement du fonctionnement par orientation du flux rotorique vers un fonctionnement par orientation du flux statorique consiste à faire varier les grandeurs suivantes : - Magnétisation par le stator → magnétisation par le rotor. Orientation du flux rotorique → orientation du flux statorique Facteur de puissance unitaire au rotor → facteur de puissance unitaire au stator. q βr Ir = βs q βr Фr = φrd is θr θs is Commande par orientation du flux βs d αr Is = ir Фs = φsd d θr θs αs αr αs ir
Commande par orientation du flux Figure 4.2. Diagramme vectoriel pour deux magnétisations, par le stator et par le rotor
La vitesse mécanique et le couple électromagnétique ne sont pas affectés par ce changement d’orientation du flux ainsi que la loi de répartition de puissance totalement indépendante. Dans un deuxième temps, il faut vérifier si la loi de commande de la machine modifie les régulateurs. La loi de commande est indépendante de l’orientation du flux choisi, ce qui est avantageux car il n’est pas nécessaire de changer les régulateurs de courants ou les termes de compensation. Chapitre 4 Reconfiguration du mode de fonctionnement de la MADA suite à des défauts convertisseurs isd isd-réf
Régulateur Courant stator V1sdc isq V1sd V1sdc1 φrd-réf 1/Msr ird-réf = 0 ird Régulateur Courant rotor V1rdc V1rd Régulateur Courant stator isq-réf Calcul tensions Vsd et Vrd Vsd Vrd ird Régulateur Courant rotor V1rdc Lr/Msr Cem-réf irq -1/P φrd-réf irq-réf Régulateur Courant rotor (b) V1rd 1/Msr isd-réf = 0 isd Régulateur Courant stator V1sdc V1sd V1rqc V1rq Calcul tensions Vsq et Vrq Vsq Calcul tensions Vsq et Vrq Vrq Vrq V1rqc1 irq Régulateur Courant rotor irq-réf V1rqc V1rq V1rqc1 V1rdc1 φsd-réf V1sq V1sqc1 (a) V1rdc1 ird-réf V1sqc Calcul tensions Vsd et Vrd Ls/Msr Vrd Vsd Cem-réf isq -1/Pφsd-réf isq-réf V1sdc1 Régulateur Courant stator V1sqc V1sq Vsq V1sqc1
Figure 4.3. Boucle de régulation pour une magnétisation stator (a) et une magnétisation rotor (b)
Le tableau 4.1 résume les valeurs de références des différentes grandeurs électriques et mécaniques de la machine dans le cas d’un contrôle vectoriel par orientation du flux rotorique et d’un contrôle vectoriel par orientation du flux statorique.
Grandeur Ωréférence isd-référence ird-référence isq-référence irq-référence Contrôle vectoriel par orientation du flux roto Ωréf Φrn/Msr 0 (-Lr/Msr) irq-référence -Cem-réf/(P. Φrn) Contrôle vectoriel par orientation du flux statorique Ωréf 0 Φsn/Msr Cem-réf/(P. Φsn) (-Ls/Msr) isq-référence
Tableau.4.1 : Références de vitesse et de courants dans le cas des contrôles vectoriels statoriques et rotoriques
4.1.1. Résultats de Simulation
Le fonctionnement du dispositif est : - Pour : 0 ≤ t ≤ 0.3 s : magnétisation de la machine à vitesse nulle. Pour : 0.3 ≤ t ≤ 1 s : établissement à vitesse nominale à vide avec un contrôle vectoriel rotorique. LSE-LEEI 100 Chapitre 4 - Reconfiguration du mode de fonctionnement de la MADA suite à des défauts convertisseurs
Pour : 1 ≤ t ≤ 1.4 s : Fonctionnement à vitesse nominale à couple de charge nominal avec un contrôle vectoriel rotorique. Pour : 1.4 ≤ t : Fonctionnement à vitesse nominale à couple de charge nominal avec un contrôle vectoriel statorique. 160 W
W
-réf
150 Vitesse (rad/s) 140 130 120 110 100 0.6 0.8 1 1.2 1.4 Temps (s) 1.6 1.8 2
Figure 4.4. Variation de la vitesse de la machine et sa référence
La figure 4.4 montre la variation de la vitesse de la machine avant et après le changement de l’orientation du flux. Le couple électromagnétique suit sa référence et ne subit pas de distorsions. Les composantes isq et irq des courants statorique et rotorique de la machine sont à l’image du couple électromagnétique et suivent leurs références respectives.
18 Cem Cem-réf 16 14 12 Couple (Nm) 10 8 6 Variation de l'orientation du flux de la machine 4 2 0 -2 -4 0.6 0.8 1 1.2 1.4 Temps (s) 1.6 1.8 2
Figure 4.5. Variation du couple électromagnétique et de sa référence LSE-
LEEI 101 Chapitre 4 Reconfiguration du mode de fonctionnement de la MADA suite à des défauts convertisseurs
10 I-rq I-rq-réf I-sq I-sq-réf 8 6 4 Courants (A) 2 Variation de l'orientation du flux de la machine 0 -2 -4 -6 -8 -10 0.6 0.8 1 1.2 1.4 Temps (s) 1.6 1.8 2
Figure 4.6. Variation des courants isq et irq
La figure 4.7 montre l’évolution des courants isd et ird. Chacun des deux courants change de référence au moment du changement de la magnétisation de la machine. 12 Ird I-rd-réf Isd I-sd-réf 10 Courants (A) 8 6 4 2 0 -2 0.6 0.8 1 1.2 1.4 Temps (s) 1.6 1.8 2
Figure 4.7. Variation des courants isd et ird
La figures 4.8 illustre l’évolution des composantes d et q des flux statorique
et roto
rique
.
Les
compos
antes φ
s
q et φrq illustrent bien le
changement de l’orientation du flux (rotorique → statorique). Les composantes directes des flux, passent par un transitoire dans lequel leurs valeurs respectives baissent et ceci à cause de la dynamique de la variation des courant isd et ird.
converti
1.6 Phi-sd Phi-sq 1.4 Phi-rd Phi-rq 0.8 0.7 1.2 0.6 0.5 Flux (Wb) Flux (Wb) 1 0.8 0.6 0.4 0.3 0.2 0.4 0.1 0.2 0 0 -0.2 0.6 -0.1 0.8 1 1.2 1.4 Temps (s) 1.6 1.8 2 -0.2 0.6 0.8 1 1.2 1.4 Temps (s) (
a
) 1.6 1.8
2 (b) Figure 4.8. Allure des composantes d et q du flux statorique (a) et du flux rotorique (b) Les angles de transformation θs et θr changent de valeurs au moment de la variation de l’orientation du flux (figure 4.9), mais gardent toujours les mêmes périodes respectives, ce qui montre bien que la loi de répartition de puissance est indépendante du choix du flux à orienter. 8 Téta-s Téta-r 7 Angle (rad) 6 5 4 3 2 1 0 1.3 1.35 1.4 Temps (s) 1.45 1.5
Figure 4.9. Variation de θs et θr
Au cours de la variation de l’orientation des flux, nous avons basculé vers un fonctionnement à facteur de puissance statorique unitaire (au lieu d’un facteur de puissance rotorique unitaire). Les figures 4.10 et 4.11 montrent respectivement les variations des puissances réactives et actives statorique et rotorique. Pour la variation des puissances réactives Qr et Qs, où cette dernière devient nulle pour t > 1.4s.
Chapitre 4 Reconfiguration du mode de fonctionnement de la MADA suite à des défauts convertisseurs
2000 Qs Qr Puissance Réactive (VAR) 1500 1000 500 0 -500 -1000 0 0.2 0.4 0.6 0.8 1 1.2 Temps (s) 1.4 1.6 1.8 2
Figure 4.10. Variation des puissances réactives Qs et Qr Ps Pr 1400 1200 Puissance active (W)
1000 800 600 400 200 0 -200 0 0.2 0.4 0.6 0.8 1 1.2 Temp
s (s) 1.4 1.6 1.8 2 Figure 4.11. Variation des puissances actives Ps et Pr
Le passage d’une magnétisation par le stator vers une magnétisation par le rotor, avec les modifications qui suivent, nous a permis d’étudier la faisabilité de la reconfiguration de la commande. Le processus choisi s’avère simple à mettre en œuvre et efficace. En effet, le choix des différents régulateurs ainsi que les termes de compensation est indépendant du type de magnétisation.
4.2 Défaut de la capacité du bus continu
Le premier défaut analysé, dans cette étude, est le défaut de la capacité du bus continu. Il consiste en la décharge de la capacité du bus continu dans la partie onduleur du système. Cette décharge est causée par une annulation du courant iL traversant l’inductance L du filtre. La tension du bus continu Vc décroît alors jusqu’à une valeur limite inférieure pour laquelle le fonctionnement de la MADA est perturbé. Ici, cette valeur a été fixée à 2/3 de la valeur nominale Vc. A ce moment là, s’effectue le passage d’un LSE-LEEI vers un ement à cage » (au stator ou au rotor) en éliminant le circuit défectueux
4.2.1. Simulation du défaut
On suppose que le défaut a lieu sur le circuit alimentant le rotor, l’alimentation du stator n’étant pas affectée. Mais on aurait les mêmes circuits d’interrupteurs au niveau du stator pour isoler l’alimentation de cette armature en cas de défaut sur le circuit statorique. Le défaut traité en deux points de fonctionnement, le premier à vitesse nominale et couple de charge nominal, le second à basse vitesse (40% de la vitesse nominale) et à couple de charge moyen (30% du couple nominal). Pour la simulation du défaut et du passage d’un fonctionnement d’une MADA avec les deux onduleurs à un fonctionnement avec un seul onduleur, trois étapes sont considérées : - La première étape est déclenchée par l’apparition du défaut à t0 = 1.5 s. A cet instant, le courant IL (figure 4.12) décroît jusqu’à des valeurs très faibles, ce qui cause la décharge de la capacité C du côté de la MADA. Cette étape se prolonge jusqu’à ce que la tension Vc atteigne la valeur limite de 2/3 de sa valeur nominale (2/3 Vc). Cet instant déclenche la seconde étape. Tout au long de la première étape la machine est en fonctionnement MADA, elle est alimentée par les deux onduleurs. Kc Km Onduleur IL ia ib ic Côté stator ira a irb b Vc
MADA C c irc Côté rotor Figure 4.12. Dispositif de puissance permettant la reconfiguration du mode de fonctionnement
. - La seconde étape est déclenchée, à l’instant t = t2, moment où la tension du bus continu atteint sa valeur minimale. Est appliqué alors le vecteur de tensions permettant d’annuler les tensions d’alimentation côté rotor (au moyen des signaux de commande des interrupteurs de puissance) Ensuite, l’interrupteur Kc est fermé à t = t3 et par la suite, à t = t4, l’interrupteur Km s’ouvre.
Chapitre 4 Reconfiguration du mode de fonctionnement de la MADA suite à des défauts convertisseurs
La reconfiguration de la partie puissance permet de modifier le fonctionnement de la MADA à deux onduleurs en celui d’un moteur « à cage » (court-circuit au rotor ou au stator) avec un seul onduleur. Le changement doit être accompagné d’une reconfiguration adéquate de commande. Par conséquent, le contrôle vectoriel initial de la MADA doit être remplacé par le contrôle vectoriel classique d’une machine « asynchrone à cage ». Pour le moment, les interrupteurs Kc et Km sont considérés comme parfaits. Dans un deuxième temps, ils seront remplacés par des composants électroniques commandés (IGBTs). - La troisième et dernière étape est déclenchée à l’instant t = tf. : c’est le fonctionnement en machine à cage. La figure 4.13 montre la chronologie du déroulement des évènements accompagnant le défaut. Apparition du défaut Vc = Vcmin Fermeture Ouverture Kc Km « Machine à cage » t t0 t2 t3 t4 tf
Figure 4.13. Chronogramme des évènements accompagnant le défaut de la capacité lié au stator ou au rotor
4.2.2. Reconfiguration de la commande 4.2.2.1. Défaut de la capacité de l’onduleur lié au rotor
Cette partie est consacrée à la reconfiguration de la commande vectorielle initiale de la MADA en présence du défaut de la capacité de l’onduleur lié au rotor. Par conséquent, on la remplace par une commande vectorielle classique permettant d’avoir des performances acceptables de la machine avec un rotor en court circuit. L’analyse de la commande de la MADA avant le défaut permet de déterminer les grandeurs de références à maintenir, et celles à éliminer ou à modifier. Les figures 4.14 et 4.15 illustrent les différentes structures des boucles de régulation de la commande vectorielle de la MADA dans un fonctionnement sain. Elles représentent les boucles de régulation des courants dans les axes d et q ainsi que celles permettant le calcul des tensions statoriques et rotoriques. Pour un fonctionnement défaillant, la régulation des courants ird et irq est abandonnée, puisqu’il n’y a plus de convertisseur statique côté rotor.
Chapitre 4 Reconfiguration du mode de fonctionnement de la MADA suite à des défauts convertisseurs
Le calcul des tensions statoriques à partir des tensions couplées (V1sd, V1rd, V1sq et V1rq) devient aussi inutile (tensions rotoriques nulles). Les termes de compensation des tensions statoriques sont aussi recalculés. Is Régulateur Φr- V1sdc V1s Courant Isd- V1sdc1 1/Msr Ird Régulateur Courant Ird-réf = V1rdc V 1rd
Calcul tensions Vsd et Vrd Vsd Vrd V1rdc1 Figure 4.14. Régulations des courants statoriques et rotoriques de l’axe d pour un fonctionnement sain Is Isq-réf Régulateur Courant V1sqcV1s V1sqc1 Ls/Msr Cem-réf Ir -1/PΦr-réf Irq- Régulateur Courant V1rqc V 1rq Calcul tensions Vsq et Vrq Vsq Vrq V1rqc1 Figure 4.15. Régulations des courants statoriques et rotoriques de l’axe q pour un fonctionnement sain
Les fonctions de transfert des boucles de régulations des courants restent identiques à celles de la commande de la MADA, les régulateurs demeurent alors inchangés. L’un des points les plus importants de la commande utilisée en mode sain est la loi de répartition de puissance qui permet, de travailler à facteur de puissance unitaire au rotor, d’optimiser les échanges de puissances « stator-rotor ». Cette loi de répartition de puissance permet également d’optimiser le dimensionnement de chacun des deux convertisseurs par rapport à la puissance nominale du stator et du rotor et de calculer les pulsations rotorique ωr et statorique ωs. Cette loi sous-entend une double alimentation de la machine. En fonctionnement défaillant, le rotor en court-circuit se trouve consommateur d’une partie de la puissance fournie par le stator. La loi de répartition de puissance se trouve donc éliminée, ce qui nécessite de fonctionner à puissance réduite, suivant le dimensionnement de chaque convertisseur. La loi de répartition de puissance est éliminée au moment du passage au fonctionnement avec un seul onduleur, et la relation d’autopilotage (ωs=ω+ωr) est alors utilisée pour la détermination des différentes pulsations du système. Enfin, le calcul des angles de transformation à LSE-LEEI
Chapitre 4 Reconfiguration du mode de fonctionnement de la MADA suite à des défauts convertisseurs partir des composantes d et q du flux rotorique et de la relation d’autopilotage reste inchangé puisque les courants statoriques et les courants rotoriques sont mesurés.
En récapitulant, les différentes étapes pour la reconfiguration de la commande vectorielle de la MADA vers un contrôle vectoriel classique par orientation du flux rotorique sont: - Elimination de la régulation de ird et irq. - Nouveau calcul des termes de compensation. - Elimination de la loi de répartition de puissance et son remplacement par la loi d’auto pilotage. 4.2.2.1.1. Structure de la nouvelle commande
Pour un défaut côté rotor et vu que la magnétisation de la MADA est effectuée par le stator, le contrôle du flux est toujours assuré et par conséquent il n’y a pas nécessité de changer la magnétisation. Les équations liant les tensions s’écrivent :
dφ sd − ω s φ sq dt dφ sq Vsq = R s i sq + + ω s φ sd dt dφ rd 0 = R r i rd + − ω r φ rq dt dφ rq 0 = R r i rq + + ω r φ rd dt Vsd = R s i sd + φ sd = L s i sd + M sr i rd (4.1) φ sq = L s i sq + M sr i rq φ rd = L r i rd + M sr i sd (4.2) φ rq = L r i rq + M sr i sq On a φ rd = L r i rd + M sr i sd (4.3) Donc i rd = 1 (φ rd - M sr i sd ) Lr (4.4) φ rq = L s i rq + M sr i sq = 0 D’où i rq = − M sr i sq Lr (4.5)
La modélisation dans l’axe direct conduit à l’expression suivante :
LSE-LEEI
Chapitre 4 Reconfiguration du mode de fonctionnement de la MADA suite à des défauts convertisseurs
d (L s i sd + M sr i rd ) − ω s φ sq dt M d ⇔ Vsd = R s (1 + σTs )i sd + sr (ω r φ rq − R r i rd ) − σL s ω s i sq dt Lr Vsd = R s i sd + (4.6)
L’expression de la tension Vsd peut s’écrire de la manière suivante :
Vsd = Vsd1 + V
dtc1 Où Vsd1 = R s (1 + σTs d )i sd dt Et Vsdtc1 = M sr (ω r φ rq − R r i rd ) − σL s ω s i sq Lr (4.7) Pour l’axe en quadrature, il vient alors: d (L s i sq + M
sr
i rq )
+
ω
s
φ sd dt
d
⇔
Vsq = R s (1 + σTs )i sq + ω s φ sd dt Vsq = R s i sq + (4.8) Comme pour Vsd, l’expression de la tension Vsq s’écrit : Vsq = Vsq1 + Vsqtc1 Où : Vsq1 = R s (1 + σTs d )i sq dt Et Vsqtc1 = ω s φ sd (4.9) Les expressions des tensions Vsd et Vsq ont permis de définir pour les boucles de régulation de isd et isq deux fonctions de transfert en boucle ouverte selon Vsd1 et Vsq1 (équations [7] et [9]). Les expressions des termes de compensation Vsdtc1 et Vsqtc1 (équations (4.7) et (4.9)) dépendent de la pulsation statorique, du courant isq, du flux statorique ainsi que des paramètres de la machine. La seconde équation rotorique (4.1) et l’orientation du flux rotorique (φrq = 0) (4.4) donnent: ⎧ 0 = R r i rq + ω r φ rd ⎨ ⎩0 = L r i rq + M sr i sq LSE-LEEI (4.10) 109
Chapitre 4 Reconfiguration du mode de fonctionnement de la MADA suite à des défauts convertisseurs
D’où : ω r = −R r i rq φ rd =− R r M sr i sq L r φ rd (4.11) La vitesse électrique de la machine étant notée ωe on a alors : ωs = ωe + ωr. La figure 4.16 présente la structure de la boucle de régulation des courants isd et isq. Les valeurs des références de ces derniers n’ont pas changé puisque la même orientation du flux (flux rotorique) a été maintenue. Les régulateurs de courants sont identiques à ceux de la commande précédente.
| 12,058
|
df28f6f6d0cf58b9e060542c2510c294_19
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,012
|
Projection des effectifs scolarisés (2010, 2015 et 2020)
|
None
|
French
|
Spoken
| 7,198
| 14,901
|
462 66 294 78 781 35 639 26 690 32 325 34 261 26 116 31 333 46 047 34 388 41 816 44 396 34 038 40 586 72 665 52 980 64 055 71 420 53 541 63 666 26 145 20 484 24 040 24 460 19 536 22 679 32 402 25 330 29 883 30 241 24 342 28 091 47 347 36 255 42 575 44 879 35 318 40 743 21 396 16 614 19 582 19 933 15 801 18 398 26 809 20 829 24 657 24 806 19 942 23 004 39 808 30 275 35 746 37 617 29 401 34 029 m m m m m m m m m m m m m m m m m m m m m m 5 987 3 614 5 253 m m m m 12 762 7 765 10 772 m m m m 31 720 18 667 25 518 m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m 2009 Nationale Hommes Femmes H+F Mexique Pays-Bas 2008 Nationale Hommes Nouvelle-Zélande 2009 Nationale Femmes H+F Hommes Femmes H+F Hommes Femmes H+F Hommes Femmes H+F Hommes Femmes H+F Hommes Femmes H+F Hommes Femmes H+F Hommes Femmes H+F Hommes Femmes H+F Norvège 2007 Nationale Pologne 2006 SILC Portugal 2009 Nationale Rép. Source : OCDE. Collecte de données spéciale sur les revenus du travail des actifs occupés travaillant à temps plein toute l’année, Groupe de travail économique
du réseau LSO.
Les symboles représentant les données manquantes figurent dans le Guide du lecteur.
1 2 http://dx.doi.org/10.1787/888932682188
Regards sur l’éducation © OCDE 2012
209
A10
Indicateur A11
Quelles sont les retombées sociales de l’éducation ?
• Le niveau de formation est une variable prédictive de l’espérance de vie. Selon la moyenne calculée
sur la base de 15 pays de l’OCDE, un homme de 30 ans peut espérer vivre 51 ans de plus s’il est
diplômé de l’enseignement tertiaire, mais 43 ans de plus seulement s’il n’est pas diplômé du
deuxième cycle du secondaire. Chez les hommes, l’espérance de vie varie très sensiblement selon
le niveau de formation dans les pays d’Europe centrale. En République tchèque, un homme de
30 ans et diplômé de l’enseignement tertiaire peut espérer vivre, en moyenne, 17 ans de plus qu’un
homme du même âge qui a arrêté ses études avant la fin du deuxième cycle du secondaire.
• L’espérance de vie varie fortement entre les sexes. De plus, l’intensité de la relation entre le niveau
de formation et l’espérance de vie varie, elle aussi, entre les sexes. Dans l’ensemble, l’espérance de
vie varie nettement moins selon le niveau de formation chez les femmes dans 15 pays de l’OCDE.
En moyenne, les hommes de 30 ans peuvent espérer vivre 8 ans de plus s’ils sont diplômés de
l’enseignement tertiaire que s’ils ne sont pas diplômés du deuxième cycle du secondaire, contre
4 ans de plus chez les femmes entre ces deux niveaux de formation. Chez les femmes, cette
différence d’espérance de vie entre les deux niveaux de formation est d’un an au Portugal.
• Bien que tous les pays de l’OCDE encouragent leurs citoyens à se rendre aux urnes, les taux de
participation varient entre les groupes d’âges et des différences sensibles de comportement
s’observent entre les individus selon leur niveau de formation dans la plupart des pays. Le taux de
participation électorale varie, en moyenne, de 14.8 points de pourcentage parmi les individus de
25 à 64 ans, selon qu’ils sont très instruits ou peu instruits. Cet écart est nettement plus important
chez les jeunes adultes (25-34 ans) : il s’établit à 26.8 points de pourcentage. En Allemagne, cet
écart atteint même 49.6 points de pourcentage chez les jeunes adultes.
Graphique A11.1. Différences d'espérance de vie entre les individus âgés de 30 ans,
selon le niveau de formation (2010)
Différences d'espérance de vie entre les adultes âgés de 30 ans diplômés de l'enseignement tertiaire
et ceux dont le niveau de formation est inférieur au 2e cycle du secondaire, selon le sexe
Différences d'espérance de vie entre les adultes diplômés
de l'enseignement tertiaire et ceux dont le niveau
de formation est inférieur au 2e cycle du secondaire
Hommes
11.7
8.3
10.0
6.3
7.6
4.9
5.0
3.9
3.6
2.4
3.4
24
4.7
22
2.1
1.5
18
Années
16
14
12
10
8
6
4
2
0
Différences d'espérance de vie entre les adultes diplômés
du 2e cycle du secondaire et ceux dont le niveau de formation
est inférieur à ce niveau d'enseignement
Femmes
Rép. tchèque
Estonie
Hongrie
Pologne
Slovénie1
États-Unis4
Moyenne OCDE
Irlande3
Norvège
Finlande
Danemark
Canada
Italie2
Pays-Bas5
Suède
Portugal
0.4
0
2
1.7
4.4
4.8
2.5
3.4
4.6
2.7
3.2
2.5
2.1
2.7
2.0
2.6
2.0
1.7
4
6
8
10
12
14
16
18
Années
Remarque : les données présentées montrent les différences d'espérance de vie entre les individus de 30 ans, selon leur niveau de
formation.
1. Année de référence : 2009.
2. Année de référence : 2008.
3. Année de référence : 2006.
4. Année de référence : 2005.
5. Année de référence : 2007-10.
Les pays sont classés par ordre décroissant des différences d'espérance de vie entre les hommes âgés de 30 ans.
Source : OCDE. Tableau A11.1. Voir les notes à l'annexe 3 (www.oecd.org/edu/eag2012).
1 2 http://dx.doi.org/10.1787/888932678825
210 Regards sur l’éducation © OCDE 2012
Contexte
L’idée que l’éducation est source d’avantages sociaux n’est pas neuve. Dans l’Antiquité, des
philosophes tels que Platon et Aristote affirmaient déjà que l’éducation était cruciale pour le
bien-être de la société. Les décideurs politiques, les chefs d’établissement, les enseignants et les
parents s’accordent tous, ou presque, à reconnaître les diverses vertus de l’apprentissage. Les
études de sciences sociales menées ces dernières décennies confirment de façon unanime la
corrélation entre l’élévation du niveau de formation et l’amélioration de la santé, le renforcement
de l’engagement civique et la réduction de la criminalité. Depuis peu, des chercheurs commencent
à réunir des éléments à l’appui d’une relation de cause à effet entre l’éducation et plusieurs
retombées sociales (OCDE, 2010).
Indicateur A11
Certains pays ont pris des initiatives qui tiennent davantage compte des retombées sociales
positives de l’éducation. Des programmes de prévention du décrochage scolaire, d’activités
extrascolaires et autres ont, par exemple, été mis en œuvre à titre de mesures anticriminalité
dans certains pays. En santé publique, les décideurs commencent à orienter leurs efforts sur le
milieu scolaire, par exemple via des initiatives qui incitent les jeunes à adopter des modes de vie
sains. Dans l’ensemble, les responsables politiques semblent se rallier à l’idée que les efforts de
prévention en milieu scolaire permettraient de lutter efficacement contre des problèmes sociaux
plus larges, en particulier dans la conjoncture économique actuelle.
De plus, le bien-être et le progrès social prennent de plus en plus d’importance dans l’action
publique. Certains chefs d’État et de gouvernement (français et britannique, par exemple) et
d’éminents économistes (dont Joseph Stiglitz et Amartya Sen) ont souligné la nécessité d’aller audelà des indicateurs économiques traditionnels de la réussite, tels que le PIB et le revenu national,
pour mesurer les progrès accomplis sur la voie de la réalisation d’objectifs nationaux. Aborder le
bien-être et le progrès social dans le cadre d’une approche pangouvernementale, dans laquelle
l’éducation jouerait un rôle majeur, suscite de plus en plus l’intérêt des responsables politiques
depuis lors.
Autres faits marquants
• Dans l’ensemble, l’éducation est une variable prédictive de diverses retombées sociales.
Les adultes sont plus susceptibles de participer davantage à la vie de la société, d’être plus
satisfaits de leur vie et de se rendre aux urnes s’ils sont plus instruits. L’engagement social
des individus et la satisfaction qu’ils retirent de la vie varient fortement selon leur niveau de
formation, même après contrôle des différences d’âge, de sexe et de revenu. Ce constat donne
à penser que l’éducation a vraisemblablement un impact sur ces retombées via les compétences
et aptitudes que les individus acquièrent, même si d’autres facteurs en rapport avec le choix
des études ou les diplômes obtenus peuvent aussi intervenir.
• Les connaissances civiques des élèves contribuent à expliquer leurs attitudes et leurs
valeurs sociales. Dans tous les pays de l’OCDE qui ont participé à l’Enquête internationale de
l’éducation à la citoyenneté (International Civic and Citizenship Education Study, ICCS) en 2009,
les élèves scolarisés dans le premier cycle de l’enseignement secondaire (8e année) qui ont
davantage de connaissances civiques (soit ceux qui connaissent et comprennent les concepts
et les aspects de la citoyenneté) sont plus favorables à l’égalité des droits des minorités
ethniques.
Regards sur l’éducation © OCDE 2012
211
chapitre A
A11
Les résultats des établissements d’enseignement et l’impact de l’apprentissage
Analyse
Le niveau de formation est en corrélation positive avec plusieurs types de retombées sociales, comme
l’espérance de vie, le degré de satisfaction de la vie, la participation aux élections et l’engagement social (voir
les graphiques A11.1 et A11.2, les tableaux A11.1, A11.2, A11.3 et A11.4). Les corrélations entre le niveau de
formation et ces retombées sociales sont parfois fortes. En Hongrie, par exemple, la différence d’espérance
de vie entre les individus âgés de 30 ans atteint 13.1 ans selon qu’ils sont très instruits (soit ceux qui sont
diplômés de l’enseignement tertiaire) ou peu instruits (soit ceux qui ne sont pas diplômés du deuxième cycle de
l’enseignement secondaire). De même, aux États-Unis, la différence de taux de participation électorale s’établit
à 45.6 points de pourcentage entre les individus selon qu’ils sont très instruits ou peu instruits. En Estonie,
enfin, la différence d’engagement social est de 33 points de pourcentage entre les individus très instruits
et les individus peu instruits. Dans de nombreux pays, certaines de ces corrélations sont statistiquement
significatives, même après contrôle des différences d’âge, de sexe et de revenu (voir le tableau A11.3 et le
tableau A11.5, en ligne).
Graphique A11.2. Différences de participation électorale dans la population adulte,
selon le niveau de formation (2008, 2010)
Différences de participation électorale entre les jeunes adultes (25-34 ans) et entre les seniors (55-64 ans),
selon le niveau de formation (niveau de formation tertiaire ou inférieur au 2e cycle du secondaire)
Différences de participation électorale
entre les jeunes adultes,
selon le niveau de formation (25-34 ans)
Différences de participation électorale
entre les seniors,
selon le niveau de formation (55-64 ans)
États-Unis
Allemagne
Autriche
République tchèque
France
Suisse
Finlande
Pologne
Estonie
Royaume-Uni
Suède
Pays-Bas
Slovénie
Norvège
Canada
Moyenne OCDE
Danemark
Belgique
Portugal
Fédération de Russie
Israël
République slovaque
Hongrie
Espagne
Brésil
Turquie
Irlande
Grèce
55 50 45 40 35 30 25 20 15 10
Points de pourcentage
5
0
0
5
10 15 20 25 30 35 40 45 50 55
Les pays sont classés par ordre décroissant de la proportion d’adultes âgés de 25 à 34 ans faisant état d’une participation électorale.
Source : OCDE. Tableau A11.2. Voir les notes à l’annexe 3 (www.oecd.org/edu/eag2012).
1 2 http://dx.doi.org/10.1787/888932678844
212 Regards sur l’éducation © OCDE 2012
Points de pourcentage
chapitre A
Quelles sont les retombées sociales de l’éducation ? – Indicateur A11
Des éléments donnent à penser que ces corrélations sont des relations causales. Lleras-Muney (2005),
Glied et Lleras-Muney (2008) et Cipollone et Rosolia (2011) ont, par exemple, établi qu’une année d’études
supplémentaire réduisait la mortalité aux États-Unis et en Italie. Selon Lleras-Muney (2005), le fait de suivre
une année d’études supplémentaire entraîne une augmentation de l’espérance de vie de 1.7 an à l’âge de 35 ans.
De plus, il ressort des travaux de Miligan et al. (2004) qu’une année d’études supplémentaire accroît le taux de
participation électorale aux États-Unis.
Les corrélations entre l’éducation et les retombées sont sociales sont assez variables entre les groupes de
population. La corrélation entre l’éducation et l’espérance de vie est, par exemple, forte chez les hommes,
mais plutôt ténue chez les femmes (voir le graphique A11.1 et le tableau A11.1). En outre, la corrélation entre
l’éducation et la participation électorale est faible chez les seniors (soit entre l’âge de 55 et 64 ans), mais très
forte chez les jeunes (soit entre l’âge de 25 et 34 ans) (voir le graphique A11.2 et le tableau A11.2).
L’éducation peut améliorer les retombées sociales dans la mesure où elle aide les individus à prendre des
décisions réfléchies en toute connaissance de cause, à s’informer et à améliorer leurs aptitudes cognitives et
leurs facultés socio-émotionnelles (zèle, image de soi et compétences sociales). En ce sens, l’éducation peut les
amener à choisir des modes de vie plus sains et à s’engager davantage dans la société civile. Les établissements
d’enseignement peuvent aussi offrir un environnement positif pour amener les enfants à prendre des habitudes
saines, à se montrer coopératifs et à adopter des normes favorables à la cohésion sociale : un climat d’ouverture
en classe, une implication concrète dans des matières civiques et une philosophie qui promeut la citoyenneté
active peuvent, par exemple, améliorer la participation à la vie de la société.
Graphique A11.3. Attitudes des élèves envers l’égalité des droits des minorités ethniques (2009)
Échelle moyenne d’engagement civique parmi les élèves de 8e année,
selon leur niveau de connaissances civiques
Niveau 3
Niveau 2
Niveau 1
Sous le niveau 1
Échelle moyenne ICCS
60
55
50
45
Finlande
Rép. tchèque
Corée
Autriche
Suisse
Danemark
Pays-Bas
Angleterre (UKM)
Rép. slovaque
Slovénie
Belgique (Fl.)
Pologne
Féd. de Russie
Italie
Total OCDE
Suède
Grèce
Estonie
Irlande
Nouvelle-Zélande
Espagne
Norvège
Indonésie
Luxembourg
Mexique
35
Chili
40
Remarque : les pays sont classés par ordre décroissant des échelles moyennes d’attitudes envers l’égalité des droits des minorités ethniques des
élèves de 8e année se situant au niveau 1 de connaissances civiques. Les échelles moyennes ICCS se fondent sur le modèle de crédit partiel de Rasch
et les estimations pondérées de la vraisemblance (weighted likelihood estimates, WLE) qui en résultent ont été converties au système métrique de
sorte que la moyenne est égale à 50 et l’écart type, à 10. Pour une présentation plus détaillée de l’échelle ICCS, consulter la section « Définitions » à
la fin de cet indicateur.
Source : OCDE. Tableau A11.4. Voir les notes à l’annexe 3 (www.oecd.org/edu/eag2012).
1 2 http://dx.doi.org/10.1787/888932678863
Regards sur l’éducation © OCDE 2012
213
A11
chapitre A
A11
Les résultats des établissements d’enseignement et l’impact de l’apprentissage
Dans tous les pays de l’OCDE qui ont participé à l’enquête ICCS, les élèves de 8e année (soit ceux âgés de 14 ans
environ) qui ont un niveau plus élevé de connaissances civiques sont plus susceptibles, une fois adultes, d’être
favorables à l’égalité des droits des minorités ethniques (voir le graphique A11.3 et le tableau A11.4), de se
rendre aux urnes et d’être favorables à l’égalité entre les sexes (voir le graphique A11.3 et le tableau A11.2
dans l’édition de 2011 de Regards sur l’éducation). En Nouvelle-Zélande, par exemple, les élèves dont le niveau
de connaissances civiques est le moins élevé accusent un score de 45.6 points seulement sur l’échelle ICCS
d’attitudes envers l’égalité des droits des minorités ethniques, contre 56.1 points chez les élèves les plus au fait
des matières civiques (voir le tableau A11.4 et la section « Définitions » à la fin de cet indicateur pour plus de
précisions sur les échelles ICCS).
Définitions
Cette section décrit les variables en rapport avec l’éducation (le niveau de formation et les connaissances
civiques) et avec les retombées sociales. Ces variables sont décrites en détail et accompagnées des items
administrés dans chaque enquête à l’annexe 3 (www.oecd.org/edu/eag2012).
Par connaissances civiques, on entend le fait de connaître et de comprendre les principes et les fondements
de la citoyenneté et du civisme au sens traditionnel du terme (Schultz et al., 2010). Lors de l’enquête ICCS, les
élèves scolarisés dans le premier cycle de l’enseignement secondaire (en 8e année) ont répondu à 79 items en
rapport avec la société civile et ses rouages, les principes du civisme, la participation à la vie de la société, et le
rapport au civisme et l’image de soi en la matière. Trois quarts des items sont des questions de raisonnement
et d’analyse à propos du civisme et de la citoyenneté, et les autres portent sur les connaissances à propos du
civisme et de la citoyenneté. Le niveau de connaissances civiques est rapporté sur une échelle dont la moyenne
internationale est fixée à 500 points et l’écart type, à 100 points. Le niveau de connaissances civiques varie
sensiblement entre les pays et au sein même de ceux-ci : la variance totale du niveau de connaissances civiques
est imputable à hauteur de 50 % aux variables spécifiques aux élèves, de 25 % aux variables spécifiques aux
établissements d’enseignement et de 25 % aux variables nationales. Voir Schulz et al. (2010) pour plus de
précisions sur le concept de « connaissances civiques ».
Les variables de chaque pays en rapport avec le niveau de formation ont été converties pour obtenir trois
catégories de niveau de formation (inférieur au deuxième cycle de l’enseignement secondaire, équivalent
au deuxième cycle de l’enseignement secondaire et équivalent à l’enseignement tertiaire), sur la base de
la CITE-97. La catégorie « Équivalent au deuxième cycle de l’enseignement secondaire » inclut les diplômés de
l’enseignement post-secondaire non tertiaire (niveau CITE 4).
La variable relative à la participation électorale (le fait de voter) est dérivée du pourcentage d’adultes qui
ont déclaré avoir voté lors du dernier scrutin national en date. Ces données proviennent de l’Enquête sociale
européenne (ESS) de 2008 et de 2010 dans certains pays européens, de l’Enquête sociale générale (GSS) de 2008
au Canada, de l’enquête Current Population Survey (CPS) de 2008 aux Etats-Unis et de l’enquête Estudo Eleitoral
Brasileiro (ESEB) de 2010 au Brésil. Les analyses proposées dans ce chapitre se limitent aux adultes ayant le
droit de vote. Parmi les pays à l’étude, le suffrage est obligatoire en Belgique, en Grèce et en Turquie. Dans
les pays où l’inscription en tant qu’électeur n’est pas obligatoire ou automatique (en Irlande, aux États‑Unis
et au Royaume-Uni), les analyses portent sur les individus ayant potentiellement le droit de vote (soit les
ressortissants nationaux) qu’ils soient inscrits ou non.
La variable relative à l’engagement dans les activités sociales est dérivée des réponses des élèves à la
question de savoir à quelle fréquence ils participent à des activités sociales par comparaison avec des individus
du même âge qu’eux. Par activités sociales, on entend les événements et rencontres auxquels les individus
participent par choix et non par obligation ou pour des raisons professionnelles.
L’espérance de vie est calculée sur la base d’une méthode statistique éprouvée et de données tirées des tables
de mortalité. Il convient de souligner que des différences existent entre les pays selon les sources de données
(registres ou résultats d’enquête) et la façon de classifier les décès. Rappelons au sujet de cet indicateur que,
214 Regards sur l’éducation © OCDE 2012
Quelles sont les retombées sociales de l’éducation ? – Indicateur A11
chapitre A
comme d’autres indicateurs, il sert à comparer des variables entre les sexes et les niveaux de formation dans
chaque pays. De plus, l’espérance de vie est calculée en fonction de divers facteurs concernant le passé des
individus, qui ne seront plus nécessairement les mêmes dans l’environnement des individus aujourd’hui
et à l’avenir. Cette variable est un indicateur relativement probant dans l’hypothèse où les facteurs socioéconomiques, culturels et environnementaux déterminants de l’espérance de vie restent relativement stables.
La variable relative à la satisfaction de la vie correspond au pourcentage d’adultes qui se disent satisfaits de
leur vie. Ces données proviennent de l’ESS de 2010, de la GSS de 2008 au Canada et en Nouvelle-Zélande, et de
l’enquête Lifelong Education Survey de 2010 en Corée.
La variable relative aux attitudes des élèves envers l’égalité des droits des minorités ethniques est
dérivée des réponses des élèves à une série de questions sur leurs attitudes à l’égard des droits des minorités
et sur la mesure dans laquelle ils sont favorables à ce que toutes les minorités ethniques jouissent des mêmes
droits que le reste de la population. Leurs réponses ont permis de constituer une échelle ICCS dont la moyenne
internationale est fixée à 50 points et l’écart type, à 10 points. Voir Lauglo (2011) pour plus de précisions sur
la construction de cette échelle.
Méthodologie
La prudence est de rigueur lors de l’interprétation des indicateurs en rapport avec les retombées sociales à cause
des différences potentielles de normes culturelles (par exemple, la désirabilité sociale du degré de satisfaction
de la vie exprimé par les individus) et de contexte institutionnel (par exemple, les conditions à réunir pour
obtenir le droit de vote et le caractère obligatoire ou non du suffrage). Il y a lieu de privilégier l’analyse de la
variation des indicateurs en fonction du niveau de formation et du degré de connaissances civiques au sein des
pays et non entre les pays.
Ces indicateurs se basent sur les travaux menés par le Réseau de l’INES chargé d’élaborer des données relatives
aux retombées de l’enseignement sur l’économie, le marché du travail et la société (INES Network on Labour
Market, Economic and Social Outcomes of Learning, LSO), en collaboration avec le Centre pour la recherche et
l’innovation dans l’enseignement (CERI) de l’OCDE. Les indicateurs sur l’espérance de vie sont basés sur des
recherches antérieures d’Eurostat. Le cadre conceptuel des indicateurs a été élaboré dans le cadre du projet du
CERI « Les retombées sociales de l’éducation » (OCDE, 2007 et 2010) ; les stratégies empiriques ont été mises
au point par le réseau LSO de l’INES. L’annexe 3 (www.oecd.org/edu/eag2012) donne des précisions sur le mode
de calcul des indicateurs.
Cette édition de Regards sur l’éducation propose quatre nouveaux indicateurs (voir les tableaux A11.1, A11.2,
A11.3 et A11.4) et met à jour certains des indicateurs présentés dans l’édition de 2011 de Regards sur l’éducation
(voir le tableau A11.5, en ligne). Les indicateurs mis à jour sont inclus, car des indicateurs révisés du niveau
de formation en 2010, plus comparables entre les pays, ont été publiés dans le cadre de l’ESS, la principale
source de données. Les nouveaux indicateurs ont été calculés sur la base de microdonnées provenant de l’ESS
de 2008 et de 2010, de la base de données statistiques d’Eurostat, de la base de données CANSIM de STATCAN
au Canada, du programme CDC/NCHS, de la National Longitudinal Mortality Study, du National Vital Statistics
System et de l’U.S. Census Bureau aux États-Unis. Les indicateurs de l’édition de 2011 de Regards sur l’éducation
qui ont été mis à jour ont été calculés sur la base de l’ESS de 2010. Les enquêtes ont été sélectionnées en
fonction des critères suivants :
Limite d’âge : dans les enquêtes concernant uniquement les adultes (voir les tableaux A11.2, A11.3 et A11.5),
les données retenues dans les indicateurs sont celles correspondant aux adultes âgés de 25 à 64 ans. Dans les
enquêtes concernant les élèves (voir le tableau A11.4), les données retenues dans les indicateurs sont celles
concernant les élèves de 8e année (soit ceux âgés de 14 ans environ).
Comparabilité des variables relatives au niveau de formation : le principe général a été d’utiliser, à
propos de la répartition de la population par niveau de formation, les microdonnées qui ne s’écartent pas de
plus de 10 points de pourcentage des données publiées dans les éditions précédentes de Regards sur l’éducation
Regards sur l’éducation © OCDE 2012
215
A11
chapitre A
A11
Les résultats des établissements d’enseignement et l’impact de l’apprentissage
lors d’années comparables. Il y a quelques exceptions dans certains pays, mais elles ont été recommandées par
leur représentant national au sein du groupe de travail INES et/ou du Réseau LSO de l’INES [Danemark (ESS),
France (ESS), Norvège (ESS) et Pologne (ESS)]. Dans certains pays, la variation de la répartition de la population
par niveau de formation s’explique par le fait que dans l’ESS, la catégorie du premier cycle de l’enseignement
secondaire ou du deuxième cycle de l’enseignement fondamental inclut les diplômés du niveau CITE 3C (long),
qui se classe dans le deuxième cycle de l’enseignement secondaire dans l’indicateur A11.
Comparabilité des variables relatives aux retombées sociales : les enquêtes ont été sélectionnées compte
tenu de la comparabilité de ces variables.
Représentativité : les enquêtes ont été sélectionnées selon un critère important, en l’occurrence le nombre
de pays concernés, pour pouvoir présenter les résultats d’un grand nombre de pays de l’OCDE. C’est sur la base
de ce critère que se justifie la sélection de l’Enquête sociale européenne qui couvre un grand nombre d’États
membres de l’Union européenne (UE) ainsi que d’autres pays pour la population adulte. L’ICCS couvre, quant
à elle, un grand nombre d’États membres de l’Union européenne (UE) et d’autres pays : l’Autriche, la Belgique
(Communauté flamande), le Chili, la Corée, le Danemark, l’Espagne, l’Estonie, la Fédération de Russie, la
Finlande, la Grèce, l’Indonésie, l’Irlande, l’Italie, le Luxembourg, le Mexique, la Norvège, la Nouvelle‑Zélande,
les Pays-Bas, la Pologne, la République slovaque, la République tchèque, le Royaume-Uni (Angleterre), la
Slovénie, la Suède et la Suisse.
Taille de l’échantillon : les enquêtes retenues ont été administrées à un échantillon de 1 000 sujets au
minimum dans chaque pays.
Les différences incrémentales en points de pourcentage ont été calculées sur la base de modèles de régression
dans chaque pays pour estimer la valeur théorique de chaque variable dichotomique (grand intérêt pour la
politique vs aucun intérêt pour la politique, par exemple) à partir du niveau de formation des individus, avant et
après contrôle des variables relatives à l’âge, au sexe et aux revenus des ménages. Dans les analyses préliminaires,
la méthode Probit et la méthode des moindres carrés ordinaires ont été utilisées. Les deux modèles ont abouti à
des estimations très similaires des différences incrémentales. C’est la méthode des moindres carrés ordinaires
qui a été retenue dans la dernière analyse générée pour estimer les différences incrémentales, car elle permet
d’obtenir des coefficients plus faciles à interpréter (voir les tableaux A11.3 et A11.5).
Les données statistiques concernant Israël sont fournies par et sous la responsabilité des autorités israéliennes
compétentes. L’utilisation de ces données par l’OCDE est sans préjudice du statut des hauteurs du Golan, de
Jérusalem-Est et des colonies de peuplement israéliennes en Cisjordanie aux termes du droit international.
Références
Cipollone, P. et A. Rosolia (2011) « Schooling and Youth Mortality: Learning from a Mass Military Exemption »,
CEPR Discussion Papers, n° 8431.
Eurostat (2012), Base de données statistiques, http://epp.eurostat.ec.europa.eu/portal/page/portal/population/
data/database.
Glied, S. et A. Lleras-Muney (2008), « Health, Inequality, Education and Medical Innovation », Demography,
vol. 45, pp. 741-761.
Lauglo, J. (2011), Statistics of Possible Interest to OECD Based on Data from the IEA International Civic and
Citizenship Education Study 2009, rapport non publié, Centre norvégien de recherche sociale (NOVA), Oslo.
Lleras-Muney, A. (2005), « The Relationship between Education and Adult Mortality in the United States »,
Review of Economic Studies, vol. 72, pp. 189-221.
Miligan, K., E. Moretti et P. Oreopoulos (2004), « Does Education Improve Citizenship? Evidence from the
United States and the United Kingdom », Journal of Public Economics, vol. 88, pp. 1667-1695.
216 Regards sur l’éducation © OCDE 2012
Quelles sont les retombées sociales de l’éducation ? – Indicateur A11
chapitre A
OCDE (2007), Comprendre l’impact social de l’éducation, Éditions OCDE.
A11
OCDE (2010), L’éducation, un levier pour améliorer la santé et la cohésion sociale, Éditions OCDE.
Schulz et al. (2010), ICCS 2009 International Report: Civic Knowledge, Attitudes, and Engagement among
Lower‑Secondary School Students in 38 countries, IEA, Amsterdam.
D’autres documents en rapport avec cet indicateur sont disponibles en ligne :
• Tableau A11.5. Différences incrémentales dans la participation électorale et la satisfaction à l’égard
de la vie à l’âge adulte liées à une élévation du niveau de formation (2010) (avec et sans contrôle de l’âge,
du sexe et du revenu)
1 2 http://dx.doi.org/10.1787/888932682321
Regards sur l’éducation © OCDE 2012
217
chapitre A
Les résultats des établissements d’enseignement et l’impact de l’apprentissage
Tableau A11.1. Années supplémentaires d’espérance de vie à 30 ans,
A11
selon le niveau de formation et le sexe (2010)
Autres G20
OCDE
Hommes
Inférieur au
2e cycle du
secondaire
2e cycle du
secondaire
Australie
Autriche
Belgique
Canada
Chili
Rép. tchèque
Danemark
Estonie
Finlande
France
Allemagne
Grèce
Hongrie
Islande
Irlande
Israël
Italie
Japon
Corée
Luxembourg
Mexique
Pays-Bas
Nouvelle-Zélande
Norvège
Pologne
Portugal
Rép. slovaque
Slovénie
Espagne
Suède
Suisse
Turquie
Royaume-Uni
États-Unis
m
m
m
45.9
m
34.1
44.9
34.2
45.3
m
m
m
34.3
m
45.3
m
48.3
m
m
m
m
47.9
m
46.6
37.3
47.1
m
40.4
m
48.4
m
m
m
47.2
Moyenne OCDE
Moyenne UE21
Argentine
Brésil
Chine
Inde
Indonésie
Fédération de Russie
Arabie saoudite
Afrique du Sud
Moyenne G20
Femmes
Tertiaire
Inférieur au
2e cycle du
secondaire
2e cycle du
secondaire
m
m
m
48.3
m
45.8
48.3
42.6
47.7
m
m
m
44.3
m
49.2
m
53.0
m
m
m
m
50.1
m
50.2
43.6
48.7
m
48.0
m
50.5
m
m
m
52.1
m
m
m
50.9
m
50.9
50.6
47.7
51.0
m
m
m
47.4
m
51.7
m
53.2
m
m
m
m
52.3
m
52.4
49.3
50.0
m
50.9
m
52.3
m
m
m
55.4
m
m
m
51.6
m
49.7
49.8
46.1
52.1
m
m
m
46.1
m
50.2
m
54.2
m
m
m
m
50.0
m
52.0
49.0
53.3
m
50.9
m
52.5
m
m
m
47.8
43.1
42.3
48.2
47.6
51.1
50.6
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
Total
Tertiaire
Inférieur au
2e cycle du
secondaire
2e cycle du
secondaire
Tertiaire
m
m
m
53.6
m
51.4
52.5
50.5
54.2
m
m
m
50.9
m
53.4
m
56.7
m
m
m
m
55.3
m
54.4
51.4
53.7
m
54.3
m
54.1
m
m
m
52.4
m
m
m
55.2
m
54.3
53.6
54.6
55.3
m
m
m
51.5
m
55.3
m
56.9
m
m
m
m
56.3
m
55.3
53.8
54.3
m
55.0
m
55.4
m
m
m
53.4
m
m
m
48.8
m
43.8
47.4
39.1
48.4
m
m
m
40.8
m
47.2
m
51.3
m
m
m
m
50.6
m
49.4
43.0
50.2
m
46.3
m
50.3
m
m
m
47.4
m
m
m
51.0
m
48.6
50.2
46.7
51.0
m
m
m
47.5
m
51.2
m
55.0
m
m
m
m
52.6
m
52.3
47.4
51.1
m
51.0
m
52.3
m
m
m
52.3
m
m
m
53.1
m
52.6
52.2
52.1
53.3
m
m
m
49.5
m
53.4
m
55.1
m
m
m
m
54.5
m
53.9
51.7
52.3
m
53.0
m
54.0
m
m
m
54.4
50.3
50.3
53.3
53.2
54.7
54.7
46.9
46.5
50.7
50.4
53.0
52.8
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
Remarques : les données du Canada proviennent de la moyenne des données de 1991 et de 2006. Les données de l’Irlande sont calculées sur la base d’une moyenne pondérée des données relatives aux individus âgés de 20 ans et de celles relatives aux
individus âgés de 35 ans. Les données du recensement de 2006 sont utilisées pour calculer le total. Les données de l’Italie sont celles de 2008. Les données
des Pays-Bas résultent de la moyenne de 2007-10. Les données de la Slovénie sont celles de 2009. Les données des États-Unis sont celles de 2005 sur la
base de données révisées et ajustées, cf. tableaux 8 et 9 sur http://www.cdc.gov/nchs/data/series/sr_02/sr02_151.pdf.
Source : EUROSTAT (2010) : http://epp.eurostat.ec.europa.eu/portal/page/portal/population/data/database ; Statistique Canada (2012) : http://www5.statcan.
gc.ca/cansim/home-accueil?lang=eng&p2=50 ; FitzGerald, Byre et Znuderl (2011) pour l’Irlande ; Centre pour le contrôle et la prévention des maladies (CDC)
(2010) : http://www.cdc.gov/nchs/data/series/sr_02/sr02_151.pdf pour les États-Unis. Voir les notes à l’annexe 3 (www.oecd.org/edu/eag2012).
Les symboles représentant les données manquantes figurent dans le Guide du lecteur.
1 2 http://dx.doi.org/10.1787/888932682245
218 Regards sur l’éducation © OCDE 2012
Quelles sont les retombées sociales de l’éducation ? – Indicateur A11
chapitre A
Tableau A11.2. Taux de participation électorale de la population adulte,
A11
selon le niveau de formation et le groupe d’âge (2008 et 2010)
Autres G20
OCDE
Jeunes adultes (25-34 ans)
Inférieur au
2e cycle du
secondaire
2e cycle du
secondaire
Australie
Autriche
Belgique
Canada
Chili
Rép. tchèque
Danemark
Estonie
Finlande
France
Allemagne
Grèce
Hongrie
Islande
Irlande
Israël
Italie
Japon
Corée
Luxembourg
Mexique
Pays-Bas
Nouvelle-Zélande
Norvège
Pologne
Portugal
Rép. slovaque
Slovénie
Espagne
Suède
Suisse
Turquie
Royaume-Uni
États-Unis
m
36.6
71.6
41.1
m
34.2
71.0
43.7
47.1
28.0
44.7
83.6
70.2
m
58.3
65.5
m
m
m
m
m
64.6
m
59.4
40.6
58.6
68.3
47.4
70.8
65.4
19.0
84.4
35.0
29.9
Moyenne OCDE
Moyenne UE21
Argentine
Brésil
Chine
Inde
Indonésie
Fédération de Russie
Arabie saoudite
Afrique du Sud
Moyenne G20
Seniors (55-64 ans)
Tertiaire
Inférieur au
2e cycle du
secondaire
2e cycle du
secondaire
m
63.7
90.7
55.1
m
46.9
88.2
56.1
61.7
53.4
74.2
86.5
69.9
m
69.5
65.2
m
m
m
m
m
80.5
m
67.4
63.3
66.9
72.5
56.8
80.4
85.8
38.9
84.1
54.2
58.0
m
80.4
93.2
68.2
m
77.3
94.2
76.3
86.1
68.5
94.3
83.0
81.7
m
59.3
78.9
m
m
m
m
m
94.9
m
86.8
79.1
77.7
80.2
76.6
82.2
95.7
59.0
86.2
67.1
82.0
m
72.7
89.5
77.2
m
47.0
92.9
53.6
73.7
72.3
67.4
91.0
79.4
m
83.8
79.8
m
m
m
m
m
78.3
m
78.1
69.6
75.1
74.4
73.7
82.4
90.9
46.5
94.6
68.9
51.3
53.6
55.2
67.6
68.0
80.4
81.7
m
91.1
m
m
m
46.1
m
m
m
m
86.8
m
m
m
56.5
m
m
m
m
93.1
m
m
m
59.7
m
m
m
Total (25-64 ans)
Tertiaire
Inférieur au
2e cycle du
secondaire
2e cycle du
secondaire
Tertiaire
m
81.8
92.8
87.1
m
63.5
94.6
66.5
80.7
77.9
81.7
90.5
79.1
m
87.8
82.1
m
m
m
m
m
89.6
m
88.2
77.6
81.1
82.2
74.6
87.0
93.5
64.9
95.0
74.0
79.2
m
91.7
93.5
90.3
m
82.4
96.1
84.7
90.1
84.8
94.2
89.7
89.8
m
86.3
87.9
m
m
m
m
m
94.3
m
93.9
88.1
85.3
84.2
86.0
90.3
96.9
78.9
90.7
80.3
91.5
m
67.9
87.5
63.4
m
44.8
90.8
50.8
71.7
69.0
62.0
90.2
77.6
m
81.3
78.1
m
m
m
m
m
76.9
m
75.9
65.1
72.8
74.1
72.0
80.5
89.4
42.8
91.6
63.6
41.8
m
77.6
92.3
72.4
m
59.6
93.6
64.3
76.1
73.8
80.3
89.5
76.8
m
84.6
77.2
m
m
m
m
m
87.8
m
84.2
73.8
76.2
80.2
69.7
85.0
91.3
59.5
89.7
69.2
69.5
m
88.5
93.4
78.4
m
81.0
95.7
82.6
89.0
80.4
94.2
87.5
87.1
m
77.9
85.4
m
m
m
m
m
94.4
m
92.0
84.2
82.7
82.9
83.1
87.5
96.6
75.0
87.8
77.3
87.4
74.6
74.9
82.1
81.6
88.9
88.8
71.3
72.3
78.2
78.2
86.1
86.5
m
97.1
m
m
m
73.9
m
m
m
m
100.0
m
m
m
72.1
m
m
m
m
100.0
m
m
m
75.3
m
m
m
m
92.5
m
m
m
67.1
m
m
m
m
89.1
m
m
m
68.5
m
m
m
m
93.1
m
m
m
71.2
m
m
m
Remarques : les chiffres présentés dans la colonne « Inférieur au 2e cycle du secondaire » correspondent à la proportion d’adultes dont le niveau de
formation est inférieur au 2e cycle du secondaire faisant état d’une participation électorale. Source : Enquête sociale européenne (ESS) de 2008 et 2010 ; Enquête sociale générale (GSS) de 2008 pour le Canada ; Current Population Survey (CPS) de
2008 pour les États-Unis ; Estudo Eleitoral Brasileiro (ESEB) de 2010 – CESOP-UNICAMP. Voir les notes à l’annexe 3 (www.oecd.org/edu/eag2012).
Les symboles représentant les données manquantes figurent dans le Guide du lecteur.
1 2 http://dx.doi.org/10.1787/888932682264
Regards sur l’éducation © OCDE 2012
219
chapitre A
Les résultats des établissements d’enseignement et l’impact de l’apprentissage
Tableau A11.3. Différences incrémentales (en points de pourcentage) dans l’engagement
A11
dans les activités sociales, liées à une élévation du niveau de formation (2010)
(avec et sans contrôle de l’âge, du sexe et du revenu)
Pourcentage d’adultes âgés de 25 à 64 ans, selon le niveau de formation
Autres G20
OCDE
Différence de résultat entre un niveau
Proportion d’adultes
Différence de résultat entre un niveau
de formation inférieur au 2e cycle du secondaire
faisant état d’un
et un niveau de formation égal
de formation de 2e cycle du secondaire
et un niveau de formation tertiaire
engagement dans les
au 2e cycle du secondaire
activités sociales parmi
les diplômés du 2e cycle
Contrôle
Contrôle
Contrôle
Contrôle
de l’enseignement
de l’âge et
de l’âge, du sexe
de l’âge et
de l’âge, du sexe
secondaire
Pas de contrôle
du sexe
et du revenu Pas de contrôle
du sexe
et du revenu
Australie
Autriche
Belgique
Canada
Chili
Rép. tchèque
Danemark
Estonie
Finlande
France
Allemagne
Grèce
Hongrie
Islande
Irlande
Israël
Italie
Japon
Corée
Luxembourg
Mexique
Pays-Bas
Nouvelle-Zélande
Norvège
Pologne
Portugal
Rép. slovaque
Slovénie
Espagne
Suède
Suisse
Turquie
Royaume-Uni
États-Unis
m
69.2
55.4
m
58.2
67.2
44.4
51.3
83.9
58.2
m
47.7
m
m
59.4
m
m
m
m
m
67.3
m
77.3
60.1
76.8
m
59.1
71.5
65.8
56.9
m
56.8
m
m
17.2
10.1
m
m
19.0
3.7
18.1
4.7
14.1
-0.5
m
21.6
m
m
1.6
m
m
m
m
m
10.1
m
13.7
6.0
17.2
m
m
13.8
9.3
1.2
m
-1.1
m
m
17.5
8.5
m
m
19.5
3.9
17.2
6.4
15.1
0.3
m
19.0
m
m
0.4
m
m
m
m
m
10.3
m
14.5
5.8
15.0
m
m
12.2
9.5
1.3
m
-0.7
m
m
16.6
7.8
m
m
15.7
3.0
15.8
5.1
10.3
-1.8
m
15.8
m
m
0.1
m
m
m
m
m
9.7
m
12.9
4.5
15.0
m
m
10.0
6.9
0.5
m
-2.6
m
m
2.6
14.2
m
m
9.3
8.8
14.9
12.7
-4.1
6.0
m
9.6
m
m
6.0
m
m
m
m
m
5.6
m
0.6
1.7
5.2
m
m
6.5
6.5
6.0
m
6.9
m
m
2.8
13.1
m
m
8.4
7.7
15.3
13.0
-3.5
6.6
m
9.4
m
m
5.7
m
m
m
m
m
5.8
m
0.2
1.3
5.5
m
m
6.4
7.2
6.2
m
6.9
m
m
2.3
13.0
m
m
5.6
5.5
12.5
10.2
-8.5
3.8
m
6.5
m
m
5.2
m
m
m
m
m
4.5
m
-2.1
-0.1
5.5
m
m
4.0
3.8
5.7
m
3.2
m
Moyenne OCDE
Moyenne UE21
62.4
62.1
10.0
10.9
9.8
10.6
8.1
8.8
6.6
7.1
6.6
7.1
4.5
4.8
Argentine
Brésil
Chine
Inde
Indonésie
Fédération de Russie
Arabie saoudite
Afrique du Sud
Moyenne G20
m
m
m
m
m
61.5
m
m
m
m
m
m
m
m
7.0
m
m
m
m
m
m
m
m
7.6
m
m
m
m
m
m
m
m
6.7
m
m
m
m
m
m
m
m
0.0
m
m
m
m
m
m
m
m
0.4
m
m
m
m
m
m
m
m
-2.0
m
m
m
Remarques : cet indicateur est dérivé des réponses des individus interrogés à la question de savoir à quelle fréquence ils participent à des activités sociales
par comparaison avec des individus du même âge qu’eux. Par activités sociales, on entend les événements et rencontres auxquels les individus participent
par choix et non par obligation ou pour des raisons professionnelles. Source : Enquête sociale européenne (ESS) de 2010. Voir les notes à l’annexe 3 (www.oecd.org/edu/eag2012).
Les symboles représentant les données manquantes figurent dans le Guide du lecteur.
1 2 http://dx.doi.org/10.1787/888932682283
220 Regards sur l’éducation © OCDE 2012
Quelles sont les retombées sociales de l’éducation ? – Indicateur A11
chapitre A
Tableau A11.4. Score moyen des élèves sur l’échelle des attitudes envers l’égalité des droits
A11
des minorités ethniques, selon leur niveau de connaissances civiques (2009)
Niveau de connaissances civiques
Autres G20
OCDE
Sous le niveau 1
Scores moyens
Er. T.
Niveau 1
Scores moyens
Er. T.
Niveau 2
Scores moyens
Er. T.
Niveau 3
Scores moyens
Er. T.
Australie
Autriche
Belgique (Fl.)
Canada
Chili
Rép. tchèque
Danemark
Estonie
Finlande
France
Allemagne
Grèce
Hongrie
Islande
Irlande
Israël
Italie
Japon
Corée
Luxembourg
Mexique
Pays-Bas
Nouvelle-Zélande
Norvège
Pologne
Portugal
Rép. slovaque
Slovénie
Espagne
Suède
Suisse
Turquie
Royaume-Uni
(Angleterre)
États-Unis
m
43.0
45.5
m
49.8
43.6
44.8
45.5
40.8
m
m
44.9
m
m
44.9
m
45.4
m
40.3
49.6
48.3
44.6
45.6
45.5
44.3
m
45.5
44.4
46.1
44.9
42.8
m
m
(0.6)
(0.8)
m
(0.5)
(0.5)
(1.6)
(0.8)
(1.8)
m
m
(0.6)
m
m
(0.8)
m
(0.5)
m
(1.2)
(0.5)
(0.4)
(1.2)
(0.9)
(0.8)
(0.7)
m
(0.8)
(0.7)
(0.7)
(1.0)
(1.2)
m
m
44.9
46.6
m
52.8
44.7
45.6
48.0
43.5
m
m
47.8
m
m
48.1
m
46.9
m
44.8
51.5
51.6
45.9
48.2
48.7
46.8
m
46.5
46.6
48.3
47.7
45.6
m
m
(0.5)
(0.5)
m
(0.4)
(0.3)
(0.6)
(0.4)
(0.7)
m
m
(0.5)
m
m
(0.6)
m
(0.4)
m
(0.5)
(0.3)
(0.3)
(0.8)
(0.6)
(0.5)
(0.4)
m
(0.4)
(0.4)
(0.4)
(0.5)
(0.7)
m
m
48.1
47.6
m
56.0
46.4
46.5
50.5
45.6
m
m
50.9
m
m
50.3
m
48.8
m
48.3
52.6
55.0
47.7
51.5
51.4
48.9
m
47.9
49.7
51.0
51.2
48.5
m
m
(0.4)
(0.4)
m
(0.3)
(0.3)
(0.5)
(0.3)
(0.4)
m
m
(0.4)
m
m
(0.5)
m
(0.4)
m
(0.3)
(0.3)
(0.2)
(0.8)
(0.5)
(0.4)
(0.3)
m
(0.4)
(0.3)
(0.4)
(0.5)
(0.5)
m
m
52.0
49.8
m
58.4
49.1
50.2
53.6
49.8
m
m
53.9
m
m
53.9
m
51.5
m
51.3
53.8
58.4
49.2
56.1
55.7
52.5
m
50.8
52.5
53.6
56.0
52.2
m
m
(0.4)
(0.5)
m
(0.3)
(0.4)
(0.4)
(0.3)
(0.3)
m
m
(0.4)
m
m
(0.4)
m
(0.3)
m
(0.2)
(0.3)
(0.3)
(0.9)
(0.4)
(0.4)
(0.4)
m
(0.4)
(0.4)
(0.4)
(0.4)
(0.3)
m
44.1
(0.6)
46.4
(0.6)
48.7
(0.6)
(0.5)
m
m
m
m
m
m
54.3
m
Total OCDE
Moyenne UE21
45.0
44.8
(0.2)
m
47.3
46.8
(0.1)
m
49.6
49.0
(0.1)
m
52.9
52.1
(0.1)
m
Argentine
Brésil
Chine
Inde
Indonésie
Fédération de Russie
Arabie saoudite
Afrique du Sud
Moyenne G20
m
m
m
m
48.2
45.6
m
m
m
m
m
m
m
(0.3)
(0.5)
m
m
m
m
m
m
m
50.1
46.9
m
m
m
m
m
m
m
(0.3)
(0.3)
m
m
m
m
m
m
m
52.6
48.5
m
m
m
m
m
m
m
(0.3)
(0.3)
m
m
m
m
m
m
m
55.3
50.6
m
m
m
m
m
m
m
(0.5)
(0.4)
m
m
m
m
Remarques : les chiffres présentés dans la colonne « Sous le niveau 1 » correspondent aux échelles moyennes d’engagement civique des élèves de 8e année
(mesure dans laquelle ils sont favorables à ce que toutes les minorités ethniques jouissent des mêmes droits que le reste de la population) parmi les
élèves se situant sous le niveau 1 de connaissances civiques.
| 51,448
|
30/hal.archives-ouvertes.fr-tel-03269835-document.txt_10
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 7,447
| 11,308
|
Le devenir des enfants est généralement mentionné dans les registres de l'hospice de la maternité. La formule la plus fréquente est : « elle est sortie et a emporté son enfant avec elle ». Cependant, il arrive parfois que l'enfant soit mis en nourrice ou envoyé à l'hospice de Tulle. Ces notations permettent de mesurer le taux d'abandon ou de mise en nourrice dans la semaine qui suit la naissance54. Ainsi, parmi les 1 913 enfants sortis vivants de la maternité55 entre 1849 et 1881, seuls 29 sont directement admis à l'hospice de Tulle, soit 1,5% du total. 14 de ses entrées à l'hospice de Tulle, soit près de la moitié, se font avant la fermeture du tour en 1857, c'est-à-dire sur une durée de 8 ans, quand les quinze autres admissions s'étalent sur 24 ans. Les femmes qui abandonnent leur enfant sont toutes célibataires à l'exception d'une dont le statut matrimonial reste cependant incertain. Si on compare ces résultats aux taux moyens de l'Hospice de la Maternité de Paris entre 1860 et 1880, on note une importante 51 Arch. dép. Corrèze, Rapport du préfet et délibération du conseil général, session de 1849, p. 67. Arch. dép. Corrèze, Rapport du préfet et délibération du conseil général, session de 1850, p. 83. 53 Arch. dép. Corrèze, Rapport du préfet et délibération du conseil général, session de 1855, p. 113. 54 En revanche, il est impossible de savoir dans quelle mesure ces mères ont gardé leur enfant dans les mois suivants. 55 Ce calcul s'appuie sur les registres de sortie des accouchées de la maternité. Deuxième partie : l'école et la maternité, aspects institutionnels différence. Ainsi, pendant cet intervalle, environ 9% des célibataires et 5,4% des femmes mariées ne gardent pas leur enfant56. Une autre destination peut attendre les enfants nés à la maternité : la nourrice. En effet, 61 enfants sont confiés à une nourrice lorsque leur mère quitte l'hospice, soit 3,2% du total des enfants vivants. Le geste est à l'initiative de la mère car rien ne signale que ces enfants sont placés à la demande de l'hospice de Tulle. Par ailleurs, 18 mères deviennent elles-mêmes nourrices à leur sortie, peut-être celle de leur propre enfant. Il s'agirait dans ce cas d'un détournement des aides départementales. Ce genre de fraude est par nature difficile à quantifier57. Deux cas plus particulièrement font soupçonner cette pratique : ceux d'Antoinette Chousenoux en 1850 et de Claire Cossac en 185658. Ces deux femmes, âgées respectivement de 28 et 22 ans, célibataires et déclarant la profession de domestiques, mettent leurs enfants en nourrice et déclarent le devenir elles-mêmes dans la foulée. Ces chiffres, 1,5% d'abandon et 3,2% de mises en nourrice, sont relativement faibles. Il faut les replacer dans le contexte des données existantes. En effet, les informations sérielles à la base de cette étude existent à partir de 1849. Or, le phénomène de l'abandon subit, tant au plan local que national, un ralentissement assez fort à partir des années 185059. L'hospice de la maternité de Tulle connaît son activité la plus florissante à une période où l'exposition d'enfants est de moins en moins fréquente. La coïncidence entre l'existence de l'hospice de la maternité et la baisse du nombre d'enfants trouvés est largement chronologique. Pourtant, un aspect au moins de la maternité est à retenir : elle offre un état civil aux enfants qui y naissent. La maîtresse sage-femme – ou parfois une des élèves – va déclarer chaque naissance et précise l'identité de la mère. Même si ce geste n'équivaut pas à une reconnaissance par un des parents60, il fixe officiellement l'existence du nouveau-né et le lien avec sa mère. L'abandon d'un enfant déclaré est dès lors beaucoup plus difficile. De plus, chaque enfant né à la maternité est baptisé dans la chapelle de l'établissement par un prêtre de la paroisse Notre- 56 BEAUVALET-BOUTOUYRIE (Scarlett), Naître
à l'hôpital, p. 275.
L
( ophe
Les enfants
trouvés
,
Alors qu'il reste encore en 1841 en France 202 hospices et 136 tours, vingt ans plus tard, on n'en compte plus que 168 et seulement 5 tours. JEORGER (Muriel), « L'évolution des courbes de l'abandon de la Restauration à la Première Guerre mondiale (1815-1913) », dans Enfances abandonnées et société en Europe, e e XIV -XX siècles, dir. Jean-Pierre Bardet, Rome, 1991, p. 722 sq. ; rappelons que l'hospice de Tulle ferme son tour en mars 1857. 60 On observe en compulsant les registres des naissances de la commune de Tulle que les reconnaissances par les mères quelques semaines ou quelques mois après la naissance de leur enfant se multiplient à partir de 1865. Il ne faut pas mésestimer le rôle de l'hospice de la maternité dans un domaine : il permet à l'administration départementale de connaître un certain nombre de filles-mères et donc d'orienter son aide vers elles. Le rassemblement, dans un établissement sous tutelle préfectorale, de femmes, dont la situation aurait pu les pousser à abandonner leur enfant, les place en première ligne de la politique d'assistance départementale. Dès 1851, on trouve mention dans le procès-verbal de la session du conseil général de ce secours accordé pendant les premières années de l'enfant. Cet argent est prélevé « sur les fonds affectés aux dépenses du service des enfants trouvés et abandonnés »63. La prévention de l'abandon se fait ainsi grâce au budget consacré cet objet. C'est aussi au cours de la décennie 1850 que l'Hospice de la Maternité de Paris organise un système de secours pour aider les mères à élever leur enfant64. L'assistance aux filles-mères pendant les premières années de la vie de leur enfant devient une constante puisque des allusions y sont régulièrement faites dans les procèsverbaux, ainsi en 1858 : Hors de la maison, la misère et souvent la honte l'attendent. La misère est cependant encore éloignée pour quelque temps, grâce au secours que nous votons pour l'enfant ; mais, bientôt ce secours manquera ; et, à ce moment, et toujours, qui la soutiendra dans les épreuves de la honte et de la séduction? L'octroi de l'aide ne peut excéder les trois ans de l'enfant. L'étude de quelques arrêtés préfectoraux fixant les aides accordées aux filles fait apparaître des durées allant de six mois (mais ces cas sont relativement rares) à un an en général. On observe aussi des prolongations allant jusqu'à 14 mois65. Mais , si réduite qu'elle soit, cette aide limite sans doute aussi le recours à l'abandon. 2) Une peur des « mauvaises intentions », pas toujours infondée
61 Arch. dép. Corrèze, 20 J272/56. Arch. dép. Corrèze, Rapport du préfet et délibération du conseil général, session de 1864, p. 24. 63 Arch. dép. Corrèze, Rapport du préfet et délibération du conseil général, session de 1851, p. 144. 64 BEAUVALET-BOUTOUYRIE (Scarlett), Naître à l'hôpital, p. 275. 65 Arch. dép. Corrèze, 4 K 77. 62 197
Deuxième partie : l'école et la maternité, aspects institutionnels
L'autre crainte majeure contre laquelle l'hospice de la maternité doit lutter est celle de l'infanticide. Le département de la Corrèze n'est effectivement pas une référence en la matière puisqu'en 1866, Pierre Rateau rappelle qu'elle se situe au onzième rang des départements français66. Des recherches dans les archives de la prison de Tulle ont confirmé la multiplicité des présomptions d'infanticide et des condamnations pour ce crime67. La misère et surtout la honte mènent à ce crime : Ailleurs, la fille qui arrive aux épreuves de la maternité a pour cortège de sa délivrance la misère, la honte, le désespoir. Après avoir passé le temps de sa grossesse à maudire sa fécondité, elle arrive au terme de cette triste période. Alors elle n'a qu'une préoccupation, qu'une pensée, faire disparaître le fruit de sa faute. [] D'autres fois, les approches de l'accouchement produisent chez elle une espèce de frénésie. Elle recherche les endroits solitaires, elle se délivre seule comme l'animal des forêts, et fermant son coeur aux sentiments de la nature, oubliant Dieu, elle porte sur son enfant une main criminelle68. Toutes les études qui ont évoqué ce problème, souvent en lien avec la maternité illégitime, ont souligné la place occupée par le déshonneur dans le geste meurtrier69. La grossesse illégitime est facteur de discrédit, d'opprobre jetée sur une femme, elle risque de lui fermer les portes des maisons où elle travaille et donc de la plonger un peu plus dans la misère. Mendicité puis vagabondage sont alors le lot de femmes qui fuient leur lieu d'origine70. Pour le département de la Corrèze, on peut citer parmi tant d'autres l'exemple de Gabrielle Tranquille, enfant trouvée de l'hospice de Brive : Gabriéle Tranquille [] s'avouant enceinte depuis près de neuf mois, se trouvant sans asile, sans ressource et repoussée de toute habitation se présente à l'école d'accouchement établie à Tulle pour y recevoir les soins et secours qu'exige sa double position de grossesse et d'indigence71. Parmi les femmes qui sont admises à la maternité de Tulle, plusieurs y sont envoyées car leur comportement a fait craindre qu'elles ne commettent l'irréparable. C'est généralement le maire de la commune qui donne l'alarme et demande au préfet de faire recevoir la jeune femme dans l'établissement. Les inquiétudes naissent parfois de la mauvaise réputation de la future mère comme c'est le cas dans la lettre qu'adresse au préfet le maire de Meyssac le 14 février 1847 : 66 RATEAU (Pierre), Étude sur le département de la Corrèze, Tulle, 1866, p. 65, Le calcul est établi en fonction du nombre d'infanticides par rapport à la population départementale, il s'élève à 1 infanticide sur 23 202 habitants. 67 Arch. dép. Corrèze, série Y, non cotée. Entre mai 1859 et janvier 1880, 51 condamnations pour infanticides sont prononcées aux assises de la Corrèze. Registres d'écrou pour les accusés de la cour d'assises : 1859-1868 et 1869-1880. 68 Arch. dép. Corrèze, Rapport du préfet et délibération du conseil général, session de
1855, p.
113. 69 TILLIER (Annick), Des criminelles au village : femmes infanticides en Bretagne (1825-1865), Rennes, PUR, 2001, p. 257 ; PAUL (Daniel), « Illégitimité et abandon d'enfants en marge de la norme sociale dans le canton d'Ebreuil aux XVIIIe et XIXe siècles », dans Études bourbonnaises, n° 300, décembre 2004, p. 285-287. 70 NOUGARET (Christine), « Les filles mères du diocèse de Rennes au XVIIIe siècle et la prostitution », dans Congrès national des sociétés savantes, Brest, 1982, histoire moderne et contemporaine, t. 1, p. 111. 71 Arch. dép. Corrèze, 1 X 168. Deuxième partie : l'école et la maternité, aspects institutionnels [] je dois vous signaler cet individu
comme
n'offrant aucune
garantie sous
aucun
rapport ;
déjà avant cette aventure-ci, le bruit avoit couru qu'étant dans une maison bourgeoise du côté de Monteil (Lot),
elle ét
oit
devenue
enceinte
, mais que l'on n'avoit jamais sçu ce qu'elle avoit fait de son enfant. Cette circonstance, le caractère et les allures de cette fille exigent qu'il soit pris des précautions et qu'on la surveille. Si on lui doit protection humainement, elle doit aussi compte de sa conduite72. La conscience de la profonde détresse matérielle et morale entraîne aussi l'intervention des maires pour faire admettre leurs administrées. La surveillance s'exerce dès avant l'entrée à la maternité. Annick Tillier a montré le contrôle social établi par le village et la paroisse sur les maternités illégitimes, surtout lorsque les femmes tentent de les garder secrètes73. Il faut d'abord faire avouer à la mère sa grossesse. L'obligation de la déclaration de grossesse a été abolie par le code pénal de 1791. Elle subsiste pourtant de manière ponctuelle et informelle : en Bretagne pendant une bonne partie du siècle74, en Corrèze aussi. Nombre de lettres de recommandation des maires pour l'admission à la maternité évoquent ces déclarations et les difficultés parfois rencontrées pour les obtenir : Je la fis venir à la mairie et la questionnai sur cette affaire qu'elle me nia d'abord, mais lui ayant dit que j'en avois la conviction et que je la ferai surveiller, elle finit par avouer et me promis de garder son enfant à condition qu'on l'aiderait75. L'administration se présente ainsi comme l'ultime recours de femmes rejetées par leur famille et qui de ce fait pourraient être portées à commettre un infanticide. Le maire prend le relais de parents furieux et s'en remet à la bienveillance du préfet, comme l'illustre cette lettre du maire Perpezac-le-Blanc le 20 mars 1843 : Marie Veaux âgée de 30 ans et Rose Veaux âgée de 26 ans, soeurs, ont mérité par leur inconduite toute l'animadversion de leurs parents. Le père, quoique d'un caractère très violent, avait pardonné une première et seconde fois, mais cette troisième récidive l'a placé dans un état d'exaspération tel que je ne réponds pas des suites funestes qui peuvent en résulter. Chassées de la maison paternelle et dans le dénuement le plus complet, que vont devenir ces malheureuses filles? En portant la pensée vers un avenir qui n'est pas éloigné, on ne peut présager que de nouveaux malheurs76. Cet exemple souligne la patience manifestée par la famille des filles-mères : les deux premières grossesses ont été pardonnées dans chaque cas. La troisième est la goutte d'eau qui fait déborder le vase. L'acceptation de la maternité illégitime, toute scandaleuse qu'elle soit, est malgré tout assez fréquente, surtout lorsqu'il s'agit d'une première grossesse. La naissance d'un deuxième enfant fragilise un équilibre précaire, mais la troisième transgression des codes moraux conduit souvent au drame. Le cas des femmes infanticides bretonnes étudiées par Annick Tillier montre que si deux enfants peuvent être tolérés par la communauté, une 72 Id. TILLIER (Annick), Des criminelles au village, p. 246. 74 Id., p. 279. 75 Arch. dép. Corrèze, 1 X 168. 76 Id. 73 199 Deuxième partie : l'école et la maternité, aspects institutionnels naissance supplémentaire prive la mère de toute protection. Seuil limite, le troisième enfant est souvent sacrifié à la peur du rejet définitif77. L'admission à l'hospice de la maternité a pour objectif d'éviter les accouchements clandestins. La naissance à la maternité sauve l'enfant d'un geste de désespoir de sa mère. En effet, les cas d'infanticides rencontrés se déroulent généralement selon un même schéma. Un certain nombre de dossiers d'instruction à propos de ce genre d'affaires ont été conservés78. Dans la plupart des cas, la grossesse est niée jusqu'au bout. En 1814, la justice assigne Anne Delbèque. Cette dernière est accusée d'avoir tué son enfant. Elle est en outre soupçonnée d'avoir réservé le même sort aux fruits issus de ses deux précédentes grossesses. Elle a cependant refusé de reconnaître qu'elle était enceinte, alors même que son ac ement commençait : Elle imagine le prétexte du mal de tête pour se mettre dans son lit, le zèle de ses voisines, surtout de la prudente Marguerite Monbazet la poursuit, elle se présente bien souvent devant le lit, à chaque fois elle lui adresse les interpellations, elle cherche à lui inspire de la confiance ; mais inutilement, elle nie toujours qu'elle soit enceinte, dans ce moment terrible même elle prend comme une injure qu'on dise qu'elle est grosse79. Il suffit ensuite que la future mère soit seule quelques heures, voire quelques instants, que l'enfant naisse pour que le geste soit commis. Dans cette affaire, la jeune femme est laissée dans sa chambre le temps que les voisines aillent prévenir sa mère. Cette dernière, dès son arrivée, tente de persuader sa fille d'avouer son état, celle-ci lui fait la même réponse : Cette fois-ci elle disait la vérité, non, elle n'était plus enceinte, elle avait accouché, le crime était consommé, l'enfant avait été étouffé80. Les principaux arguments de la défense de ces femmes sont généralement d'affirmer à leurs accusateurs que l'enfant est mort-né ou qu'elles furent trop faibles pour lui donner les premiers soins. C'est ce que fait Anne Delbèque. On peut aussi citer le cas de Thérèse Delmas qui déclare : « elle trouva plus commode d'entrer dans l'étable où elle fut obligée de se coucher et qu'aussitôt elle accoucha et perdit en même temps connaissance »81 ; ou encore celui de Catherine Bérial : À elle demandé si elle avait eu le soin après son accouchement de nouer le cordon ombilical de l'enfant. 77 TILLIER (Annick), Des criminelles au village, p. 251 à 253. Ces dossiers d'instruction sont conservés au sein de la sous-série 5 U. Ils couvrent la période qui va de l'an V à 1864, sans que cette dernière date ne signifie la fin des cas d'infanticides dans le département. Néanmoins, il s'agit seulement d'épaves et ces cas ne peuvent donner une idée de l'ampleur du phénomène
79 Arch. dép. Corrèze, 5 U 56, Réquisitoire dans l'affaire Anne Delbèque, 1814. 80 Ibidem. 81 Arch. dép. Corrèze, 5 U 56, affaire Thérèse Delmas, an XII, procès-verbal de l'interrogatoire. 78 200
Deuxième partie : l'école et la maternité, aspects institutionnels Répond
qu'
elle
n'e
ut
pas
la
force
de
le
faire
, qu'elle n'a jamais su que cela fut né
cessaire
et que quand même
elle l
'aurai
t
su,
elle
était trop faible pour pouvoir
l'entre
prendre, que d'ailleurs elle ne connut aucun signe
de vie à cet enfant.82
À l'hospice de la maternité, les accouchées sont surveillées par la maîtresse sagefemme, par les élèves, par les religieuses à partir de 1848. De surcroît, l'aide accordée aux filles-mères après leur accouchement les signale à l'administration préfectorale. Il leur est difficile de disparaître ou de faire disparaître leur enfant. Pourtant l'attention apportée n'est pas toujours suffisante et les « exhortations salutaires » ne touchent pas toujours leur but. Deux cas dramatiques viennent éclairer ces défaillances de l'établissement. Le premier intervient en février 1848. Il est connu par une lettre de Jeanne Fournial-Bondet, maîtresse sage-femme, au préfet. Écoutons-la : Deux s graves viennent pour ainsi dire de se succéder dans l'école, et je crois pouvoir l'assurer, par le défaut de surveillance des élèves Tournadour et Geneste. La première quitta le quinze janvier au soir un enfant, malgré les recommandations que j'avais faites la veille à mon cours pour que cet enfant fut surveillé avec la plus grande attention, venant de soupçonner de mauvaises intentions chez la mère, que je ne dissimulais point aux élèves. Cet enfant fut quitté et, un instant après, il venait d'être, nous le pensons tous, la victime des violences exercées sur lui par sa mère83. La question n'est pas ici de définir la responsabilité d'une élève légère ou d'une maîtresse sage-femme trop peu présente, mais cet exemple montre que l'assistance même que peut représenter l'admission à l'hospice de la maternité ne suffit pas à libérer les filles-mères qui y accouchent de leur sentiment de honte et de leur crainte de la misère. Le second cas intervient en 1872 et à l'extérieur de l'établissement. Marie Besse, 25 ans, célibataire et domestique, accouche le 16 août à l'hospice de la maternité. Six jours plus tard, elle quitte l'institution emportant son fils, François, avec elle. Elle a certainement reçu le secours habituellement accordé aux accouchées. Il est même possible qu'elle ait bénéficié d'une aide supplémentaire pour son enfant. Toujours est-il que, le 6 octobre suivant, son enfant meurt et qu'elle est accusée d'infanticide. L'acte d'accusation livre différentes informations qui nuancent fortement, pour ce cas du moins, le lyrisme du préfet et des conseillers généraux lorsque ces derniers célèbrent la bienfaisante influence du personnel de la maternité : Pendant son séjour à cet établissement, on remarqua qu'elle ne manifestait pas une grande tendresse pour son enfant. [] Une femme, Magnoux, chez laquelle elle a séjournée durant quelques jours, a raconté que lorsqu'elle entendait son enfant crier, elle disait : « s'il n'en était pas plus que d'un poulet, je ne sais pas ce que je lui ferai ». Un jour, une femme qui avait remarqué le peu de soins qu'elle donnait à son enfant, l'entendit tenir ce propos : « s'il n'en était pas plus de dommage que de rien, tu serais mort le matin »84. Deuxième partie : l'école et la maternité, aspects institutionnels
Ce drame, encore aggravé par l'abandon de son premier enfant deux ans plus tôt, voit Marie Besse condamnée à six ans de travaux forcés. Il est symptomatique des limites qu'un établissement comme l'hospice de la maternité peut connaître dans sa volonté de réduire abandon et infanticide. Contrairement aux déclarations de l'administration, il ne constitue en aucune façon le remède universel aux maux de la maternité illégitime.
Deuxième partie : l'école et la maternité, aspects institutionnels II.
Dans
la dépendance de
la pré
fecture, administration
de
tut
elle. L'école-maternité est départementale, ce qui
ne
d
écrit pas
se
ulement rayonnement
qu
'elle ambitionne
, mais plus
préc
isément sa nature juridique et administrative. Il existe des cours d'accouchement privés – c'est le cas pendant une période assez longue à Limoges85 - ou encore des maisons d'accouchement dans le département même de la Corrèze86. Or, l'objet de cette étude est une institution publique. Pour cela, elle dépend d'une administration, en l'occurrence l'administration préfectorale et des structures de contrôle de ses activités sont mises en place. La création, en même temps que l'école d'accouchement, d'une commission de surveillance rattachée à l'école est un fait essentiel pour l'avenir de l'établissement. L'évolution de son rôle et de sa composition constitue un point important de la réflexion. , 1 X 159 et 1 X 160. Arch. dép. Corrèze, Prospectus, Maison d'accouchement établie à Brive suivant l'usage de Paris. 203 Deuxième partie : l'école et la maternité, aspects institutionnels A) A la préfecture. Le préfet est l'autorité de référence de l'école d'accouchement et de l'hospice de la maternité. Son administration est en charge du suivi du fonctionnement de cette institution. Il intervient lui-même régulièrement dans les affaires de l'établissement. L'administration départementale est organisée par la loi du 28 pluviôse an VIII. Ce texte met en place pour chaque département un préfet, un conseil de préfecture chargé du contentieux administratif, un conseil général du département et un secrétaire général de préfecture. Tous les membres de ces différentes instances sont fonctionnaires. Ils sont à l'origine nommés directement par le Premier Consul, puis par le gouvernement. Le préfet est ainsi le représentant de l'exécutif à l'échelle départementale. Il veille à l'application de la politique décidée au sommet de l'état. Au point de vue départemental, le préfet est chargé d'exécuter les décisions du conseil général. Il faut d'ailleurs noter qu'il est très souvent à l'initiative de ces décisions, en particulier dans la mesure où il prépare le budget voté par cette instance et qu'il en ordonne ensuite les dépenses. La loi du 10 août 1871 qui institue l'élection du conseil général au suffrage universel ne change pas fondamentalement cette distribution des pouvoirs, puisque sur les questions économiques et d'administration générale, le conseil général ne peut qu'émettre des voeux. Rappelons à cet égard que, s'il se trouve à l'origine de la création de l'école d'accouchement de Tulle par la délibération prise au cours de la session de 1833, le conseil général n'a présenté dans ce texte qu'un voeu, une suggestion soumise à la double approbation du préfet et du ministre de l'instruction publique. Le préfet est donc, par sa capacité à prendre des arrêtés, le créateur de l'établissement. Cette dimension fondatrice est essentielle. L'influence de la personnalité du préfet dans la politique de développement de l'enseignement obstétrical a déjà été mise en valeur. Harmand d'Abancourt, Pons de Villeneuve et Thomas, ces trois hommes ont fait de leurs choix dans ce domaine une spécificité de leur carrière préfector . La création de l'école d'accouchement est de fait l'oeuvre de Théodore Thomas. La commission de surveillance de l'école d'accouchement rend d'ailleurs hommage à son action dans sa séance du 27 octobre 1838 : La commission décide à l'unanimité que son président exprimera à M. Thomas les sentiments de gratitude qu'elle lui doit en raison de la haute et constante sollicitude avec laquelle il a facilité l'amélioration progressive de l'administration de l'école par ses conseils lumineux et les allocations de ressources suffisantes. Aucune trace dans le passé de celui-ci ne semble indiquer un intérêt particulier pour cette question, la suite de sa carrière en revanche se situe dans une réelle continuité de son action en Corrèze. Il quitte le département en 1838 pour prendre un poste au Mans. Dès l'année suivante, il est nommé préfet du Jura jusqu'en 1848, date à laquelle sa carrière politique s'interrompt brusquement88. Or, dès sa prise de fonction dans ces deux départements, Théodore Thomas s'intéresse aux structures de formation des sages-femmes. La Sarthe est dotée depuis 1808 d'un cours d'accouchement. Le nouveau préfet se trouve donc dans une situation identique à celle rencontrée en Corrèze. Il s'agit de transformer le cours en école. Le Jura pour sa part ne possède aucune structure de ce type, tout reste à faire. Dans les deux cas, Thomas ne tard pas à mettre en oeuvre ses deux projets. Arrivé au Mans depuis huit mois, il écrit à son collègue et successeur corrézien pour lui demander une copie du budget détaillé des dépenses de l'école et un état des frais de premier établissement car il envisage de proposer la création d'une école au conseil général89. Il ne reste que peu de temps dans la Sarthe, mais son empressement est tout aussi grand après sa prise de poste dans le Jura, puisqu'en juillet 1840, il écrit de nouveau au préfet de la Corrèze pour lui demander les mêmes renseignements : Pendant que j'administrais le département de la Corrèze, je me suis occupé de la création, au chef-lieu, d'un cours d'accouchement. Cet établissement se trouve maintenant en pleine activité. Un semblable projet devant être formé dans le département du Jura, je désirerais faire connaître au conseil général de ce département en détail les mesures qui ont été employées à Tulle pour les dépenses de établissement, et celles qu'entraînent annuellement l'entretien du cours. Il importerait beaucoup de pouvoir distinguer dans les dépenses de premier établissement, celles qui ont eu spécialement pour objet la fourniture du mobilier et le détail des sommes pour chaque article de fourniture90. Cet exemple montre l'implication du préfet. Il est certes exceptionnel puisqu'il concerne l'homme à l'origine de l'école à Tulle. Néanmoins, il prouve l'importance accordée par ce haut-fonctionnaire à la formation obstétricale, élément fort de la politique départementale comme elle l'était à la fin du XVIIIe siècle pour celle de l'intendant. Le préfet se révèle donc l'interlocuteur privilégié de la direction de l'établissement. À partir de 1887, il en est officiellement le directeur91. La correspondance lui est systématique adressée. On possède une grande part des lettres reçues par le préfet et les brouillons de celles 87
Arch
. dép
.
Corr
èze, 1 X 165. Cent préf
ets
pour la Corr
èze
, p. 29. 89 Arch. dép. Corrèze, 1 X 166. 90 Id. 91 Arch. dép. Corrèze, 1 X 177*
,
Projet de règlement pour l'école d'accouchement et l'hospice de la maternité.
Deuxième partie : l'école et la maternité, aspects institutionnels envoyées par ce dernier. Mais on peut légitimement envisager que, si intéressés qu'aient pu être les différents préfets par les destinées de l'école-maternité, ils en déléguaient la gestion à leurs subordonnés. Le fait d'adresser le courrier au préfet a donc une valeur symbolique et nécessaire pour qu'il soit pris en considération, mais il n'atteint sans doute que rarement le cabinet de ce magistrat, hormis pour les affaires particulièrement graves. Toutefois le préfet prend, à la fin de chaque année, et après avoir reçu le procès-verbal des examens, le temps d'adresser ses félicitations aux élèves qu'il prononce lui-même ou qui sont lues lors de la remise des prix92. Avant d'évoquer les modalités du contrôle sur cet établissement, il faut définir l'identité des hommes et la nature des services en charge de celui-ci. L'organigramme de la préfecture se révèle un outil précieux. Le secrétaire général de préfecture, remplacé entre 1832 et 1865 par un conseiller de préfecture-secrétaire général, reçoit avec la loi de l'an VIII la charge de garde des papiers et le droit de signature des expéditions. Il administre de plus l'arrondissement du chef-lieu du département, en l'occurrence celui de Tulle, sauf entre 1811 et 1815, période à laquelle est nommé un auditeur au Conseil d'État, faisant fonction de souspréfet93. Il paraîtrait assez logique qu'il tienne une place importante dans la tutelle de l'écolematernité étant donné que celle-ci se situe justement dans l'arrondissement de Tulle. Arch dép Corrèze, 43 T 5. Cent préfets pour la Corrèze, p. 101-102. 94 Arch. dép. Corrèze, 4 K 75. 95 Arch. dép. Corrèze, 4 K 63 93 206
Deuxième partie : l'école et la maternité, aspects institutionnels
Lors de la redistribution qui intervient avec l'arrêté du 31 décembre 184996, deux changements ont lieu. D'une part, le texte ne parle plus d'accouchements mais de l'hospice départemental de la maternité et de l'école d'accouchement, et d'autre part, cette attribution dépend désormais de la deuxième division de la préfecture consacrée à la police. Elle n'est plus associée aux éléments évoqués au-dessus. En effet, entre 1838 et 1849, la quatrième division de la préfecture administrait aussi les écoles spéciales, c'est-à-dire un degré d'enseignement correspondant à la nature voulue par Chaptal pour les écoles de sagesfemmes. À partir de 1849 pourtant, cet aspect est versé aux affaires réservées du secrétaire général de la préfecture qui supervise l'intégralité des questions d'instruction, à l'exception donc de l'école d'accouchement. On note, en examinant les autres attributions de la deuxième division, que l'évolution vers une prépondérance de la fonction d'assistance de l'écolematernité se confirme. Elle est rattachée pour son suivi aux questions concernant les étrangers réfugiés, les aliénés, les enfants trouvés et abandonnés, les prisons départementales et la maison de dépôt. L'année 1852 est marquée par une nouvelle remise en ordre des bureaux de la préfecture. Les attributions confiées auparavant à la deuxième division passent en vertu de l'arrêté du 22 avril à la première97, avant de revenir en 1869 dans le giron de la deuxième division98. Les changements viennent d'être décrits sont pour la plupart formels. À partir de 1849, la répartition interne des domaines d'intervention varie extrêmement peu. Par conséquent que tout ce que peut recouvrir le terme « accouchements » (secours aux sagesfemmes, exercice illégal de l'art des accouchements) ressort désormais des hommes qui s'occupent de l'école d'accouchement et de l'hospice de la maternité. En ce sens la variation du numéro de la division responsable n'a guère d'importance sur le plan de la cohérence de l'administration. Ces évolutions peuvent néanmoins avoir un retentissement sur le personnel attaché aux différentes divisions, car ce dernier ne « suit » pas les dossiers dont il avait la charge originellement. Sur le plan numérique, le personnel de la préfecture n'a rien de pléthorique en regard des champs d'activités qui en dépendent. Deuxième partie : l'école et la maternité, aspects institutionnels B) La commission de surveillance ou l'oeil du préfet. 1) Création et rôle de la commission de surveillance. La présence aux côtés d'un établissement public d'une commission de surveillance n'est pas spécifique à l'école d'accouchement et à l'hospice de la maternité de Tulle. Il s'agit d'une pratique répandue, au cours du e XIX siècle, en particulier pour les institutions pédagogiques, mais on en rencontre aussi auprès de prisons. Quelques années après la fondation de l'école-maternité, la ferme-école de la Jarrige à Naves, dépendant elle aussi de l'administration départementale, possède de la même manière une commission de surveillance attachée. Le fonctionnement de la commission de surveillance près l'école d'accouchement, ainsi qu'elle s'intitule, est régi, à l'image de l'établissement qu'elle a devoir de surveiller, par les règlements successifs de cet établissement. Cinq règlements sont connus entre la création de l'école en 1834 et sa fermeture en 1895. Seuls deux ont été conservés, les trois autres n'étant signalés que par des allusions dans d'autres documents. Le premier règlement a déjà été souvent évoqué : le texte sur lequel s'appuie ce travail est celui du projet envoyé au ministre de l'Instruction publique et retrouvé dans les archives de ce même ministère102. Il date du 23 septembre 1833 et n'est pas modifié après son approbation le 16 octobre suivant. Le cinquième date de 1887. Lui aussi est parvenu sous forme de projet qui a reçu par la suite l'approbation préfectorale, ce qui signifie qu'il n'a pas été modifié103. Le second règlement, dont le texte n'a pas été conservé, prend place peu de temps après la rédaction du règlement primitif. Il s'agit d'un réajustement au bout de quelques années de fonctionnement en 1837 en l'occurrence104. Les deux suivants qui ne sont, eux aussi, connus que par la bande datent du 25 juin 1848105 et 20 décembre 1881106. Le rôle et l'étendue des compétences de la commission de surveillance sont fixés par les textes précédemment cités. Des différences existent entre les deux règlements sur les attributions confiées à cette commission et sur son statut. 102 AN, F17 2458. Arch. dép. Corrèze, 1 X 177*. 104 Arch. dép. Corrèze, 1 X 165. 105 Arch. dép. Corrèze, 4 K 74. 106 Arch. dép. Corrèze, 1 X 182. 103 209
Deuxième partie : l'école et la maternité, aspects institutionnels
La définition du champ d'intervention de la commission de surveillance fait ainsi l'objet de l'article 26 du premier règlement : Les études théoriques et pratiques, la tenue de la maison et le régime de la pension seront surveillés par une commission composée de trois membres. Cette commission est également chargée de donner son avis dans tous les cas qui pourraient motiver, de la part du préfet, l'exclusion d'une élève107. Tous les aspects du fonctionnement de l'école sont donc inclus dans les compétences de la commission. À cette description large viennent s'ajouter d'autres éléments au fil du règlement. Ainsi, la commission de surveillance a le pouvoir de délivrer aux élèves des certificats « constatant leur temps d'étude et la conduite qu'elles auront tenue pendant leur séjour à l'école » (articles 34 et 35), elle peut à l'issue des examens de fin d'année décerner un prix de bonne conduite et d'assiduité (article 39). La commission approuve les états de dépenses fournis par la maîtresse sage-femme permettant d'obtenir les mandats de l'administration départementale (article 43). Elle a toute latitude pour proposer au préfet un règlement de police intérieur et par suite des modifications de celui-ci (article 44), et ses capacités en matière de discipline sont supérieures à celle de la maîtresse sage-femme puisque la commission peut imposer des punitions de plus longue durée (article 49). Le règlement de 1887 récapitule les domaines réservés de la commission de surveillance de manière moins détaillée que ne le faisait celui de 1833. Il prend néanmoins acte d'un changement de statut de cette structure puisque, désormais, la commission assiste le préfet dans la direction de l'école108. Cette reconnaissance de son rôle a une valeur institutionnelle non négligeable. Suit alors la description de ses attributions dans l'article 7 du règlement : Cette commission est chargée de veiller à l'exécution entière des règlements, tant au point de vue de la discipline et de l'ordre intérieur qu'à celui de l'enseignement, d'examiner les comptes de l'économe, etc. Sa surveillance s'exerce en un mot sur toutes les parties du service. Elle examine et discute les mesures à prendre pour assurer le bon fonctionnement de toutes ces dernières et propose toutes les améliorations qu'elle juge utile d'introduire dans l'établissement. On peut malgré tout noter que le contrôle de la commission sur les questions de comptabilité est plus développé dans ce second règlement qu'il ne l'était auparavant. Les livres-journaux de dépenses et les livres de comptes récapitulatifs doivent être en permanence laissés à sa disposition ; le compte des recettes et dépenses de l'année écoulée et le projet de 107 AN, F17 2458. Arch. dép. Corrèze, 1 X 177*. Projet de règlement pour l'école d'accouchement et l'hospice de la maternité, art. 3 : « Cette école, qui est entretenue aux frais du département, est placée sous la direction du préfet assisté d'une commission de surveillance ». 108 210 Deuxième partie : l'école et la maternité, aspects institutionnels budget pour l'année suivante doivent lui être soumis avant d'être transmis au préfet (article 10).
2) La composition de la commission. La commission de surveillance près l'école d'accouchement de Tulle est officiellement créée par arrêté préfectoral du 7 avril 1834, texte qui fixe sa première composition109. En 1833, le nombre de membres de la commission est de trois110. Mais dès 1837, le préfet considère que ce nombre n'est pas suffisant pour remplir la mission qui lui est assignée et il l'augmente d'une personne111. Cinquante-quatre ans plus tard, ce chiffre a de nouveau augmenté et c'est désormais cinq membres qui composent la commission de surveillance112. À sa tête se trouve un président qui est choisi en son sein comme le rappelle l'arrêté préfectoral du 19 janvier 1837113. Le même texte précise qu'un secrétaire sera aussi désigné au début de la prochaine séance de la commission. Le secrétaire peut être extérieur à la commission telle qu'elle est composée par le préfet. Mais ce cas de figure ne se produit jamais. Cependant, cette organisation est transformée par le règlement de 1887. Le préfet, directeur de l'établissement, devient de ce fait président de la commission de surveillance. Cette dernière choisit désormais uniquement parmi ses membres, un vice-président, un secrétaire et un ordonnateur. Celui-ci est chargé de viser toutes les pièces de dépenses et d'en proposer l'ordonnancement (article 7)114. L'évolution de la composition de la commission est laissée pendant toute la première période à l'appréciation de ses membres qui sont renouvelés lorsqu'ils démissionnent. Là aussi, 1887 constitue un tournant puisque le renouvellement du personnel se fait d'office tous les deux ans par moitié. La première série sortante, après l'adoption du nouveau règlement, comporte trois membres. Mais une nuance est apportée de manière à ne pas trop bouleverser l'ancien système : « Les membres sortants pe être renommés » (article 10). 109 Arch. dép. Corrèze, 1 X 176. AN, F17 2458. 111 Arch. dép. Corrèze, 1 X 176. 112 Arch. dép. Corrèze, 1 X 177. 113 Arch. dép. Corrèze, 1 X 176. 114 Arch. dép. Corrèze, 1 X 177. 110 211
Deuxième partie : l'école et la maternité, aspects institutionnels
Il est possible d'évaluer la durée de présence au sein de la commission en s'appuyant sur les arrêtés de nomination du préfet115. La documentation à cet égard comporte sûrement des lacunes mais elle permet de donner une idée du temps passé par les membres à leur poste. Si l'on met à part la refonte de la commission de surveillance qui intervient en parallèle de la révision du règlement de l'école au début de 1837116 et qui voit la démission de deux membres après trois ans d'exercice117, les durées de présence au sein de la commission sont généralement beaucoup plus longues. Elles peuvent être d'une dizaine d'années voire plus comme le montrent les exemples de Soleilhet nommé en 1862 et démissionnaire en 1871, ou avant lui du commandant Floucaud, nommé en 1841 et démissionnaire en 1860.
3) Le fonctionnement et les rapports avec la direction de l'établissement. Les règlements renseignent mieux que tout autre document sur les modalités de fonctionnement de cette structure. Le règlement de 1833 fixe comme suit les obligations des membres de la commission de surveillance : La commission se réunit et visite l'école une fois chaque mois ; elle fait au préfet un rapport sur le résultat de chaque visite. En outre, un membre de la commission visite l'école au moins deux fois par semaine ; il donne à la sage-femme en chef et aux élèves les avis qu'il juge convenable, consigne chaque visite sur un registre à ce destiné le résultat de la visite et fait des rapports au préfet toutes les fois que quelque circonstance paraît l'exiger (article 27)118. Le rythme de contrôle de l'établissement est régulier, et permet un suivi assez strict de la vie scolaire. L'obligation de tenue d'un registre impose le respect du calendrier prévu par le règlement. Les frais de bureaux de la commission sont acquittés sur les fonds départementaux, à l'instar de toutes les autres dépenses de l'école. Il ne reste malheureusement aucun exemplaire des registres de visites, mais un second type de registre était tenu qui regroupait les procès-verbaux des séances de la commission, dont un exemple a été conservé. Il porte sur les années 1886 et 1887. Pourtant on peut avoir la certitude que cette pratique n'a pas cessé tout au long de la période puisque l'inventaire des objets concernant la surveillance de l'école d'accouchement remis par le président Brunie lors de sa démission le 6 février 1841 évoque un « registre des délibérations de la commission commencé le 17 février 1837 par le procès-verbal qui désigne Monsieur Brunie président, Monsieur Ventéjoul pour 115 Arch. dép. Corrèze, 1 X 176, cette liasse regroupe bon nombre d'arrêtés de nomination de membres de la commission de surveillance par le préfet entre 1834 et 1895. 116 Arch. dép. Corrèze, 1 X 165. 117 Arch. dép. Corrèze, 1 X 176. 118 AN, F17 2458. Deuxième partie : l'école et la maternité, aspects institutionnels secrétaire et continue jusqu'au 15 décembre 1840
»119. L'impératif de notation des activités de la commission est réitéré dans le règlement de 1887 : « Le membre en exercice consigne ses observations, s'il y a lieu, sur un registre spécial »120. Le calendrier établi par le premier règlement ne semble pourtant pas suffisant puisqu'en 1837, le préfet, dans son arrêté de nomination de deux nouveaux membres de la commission, exige à l'article 3 que la commission se réunisse dorénavant tous les huit jours121. Le sérieux du contrôle de cette structure ainsi que la qualité de la direction ont été remis en cause publiquement par le père d'un élève, ce qui explique les décisions prises en ce début de 1837 : Telle est la récompense que vous réserviez à son père, pour vous avoir signalé des abus trop longtemps enracinés, abus dont on reconnaît aujourd'hui l'existence, puisqu'on s'empresse de refondre la commission de surveillance ; d'asseoir un règlement équitable ; d'améliorer enfin la constitution morale et physique de l'établissement122. La décision de réunir la commission de surveillance revient finalement au préfet ou à son délégué, dans le règlement de 1887123. Les visites dans l'établissement sont organisées comme suit : À tour de rôle, ses membres sont chargés, chacun pendant un mois, de faire à l'établissement des visites fréquentes en vue de s'assurer de la bonne marche du service. L'ordre dans lequel les différents commissaires exercent cette partie de leurs attributions est réglé à la première séance de chaque année. La commission de surveillance est donc omniprésente. Elle contrôle autant qu'elle assiste le personnel de l'école et de la maternité. [] soyez convaincu que chaque fois qu'il y aura une infraction grave au règlement, elle [la commission de surveillance] se fera un devoir de vous en instruire et quand il y a eu seulement légèreté ou de simples torts à redresser, elles ont été sévèrement admonestées, directrice ou élèves, pour les tenir dans la bonne voie124. Elle soulage en outre fortement le service de la préfecture en charge de l'institution, puisqu'elle assume la quasi-intégralité du suivi administratif. Les pièces qui arrivent dans les bureaux de la division concernée n'ont plus qu'à être enregistrées et archivées, elles sont préparées par le personnel de direction de l'école ou par la commission. Cependant, il serait faux d'opposer commission de surveillance et direction de l'établissement, car l'imbrication entre ces deux structures est très importante. En effet, seule une collaboration réelle peut permettre le bon fonctionnement de l'école d'accouchement et 119 Arch. dép. Corrèze, 1 X 166. Arch. dép. Corrèze, 1 X 177. 121 Arch. dép. Corrèze, 1 X 176. 122 Arch. dép. Corrèze, 1 X 165, lettre de M. Hachette au préfet, 28 janvier 1837. Le nommé Hachette avait dénoncé dans le journal, l'Album de la Corrèze, les pratiques qu'il jugeait inacceptables au sein de l'école d'accouchement. 123 Arch. dép. Corrèze, 1 X 177. 124 Arch. dép. Corrèze, 1 X 167. 120
Deuxième partie : l'école et la maternité, aspects institutionnels de l'hospice de la maternité. Les rôles des membres de la commission et de la maîtresse sagefemme sont complémentaires.
La commission de surveillance respecte profondément le travail de la maîtresse sage-femme et l'associe volontiers à ces travaux. En effet, elle est régulièrement invitée aux réunions de la commission comme le signalent les procès-verbaux de ces séances. Elle est consultée sur l'attitude des élèves, lorsqu'un manquement à la discipline intervient, tout comme lorsqu'il s'agit de décerner un prix de bonne conduite à l'une d'entre elles. De la même manière, la sup de l'établissement, une soeur de la charité de Nevers, est conviée aux séances à partir de 1849. Elle intervient sur les questions concernant l'administration de l'établissement. En août 1858, elle propose l'admission d'une femme enceinte à l'hospice de la maternité125 ; quatre ans plus tard, elle demande que le nombre d'élèves soit augmenté exceptionnellement pour pallier l'absence de deux jeunes filles126 ; en 1863, elle est consultée sur l'opportunité d'autoriser l'admission d'une élève suivant la scolarité à ses frais127.
| 217
|
01/hal.univ-lorraine.fr-tel-01776170-document.txt_3
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 7,482
| 12,175
|
Malgré le faible nombre de souches testées (trois), et en dépit de l'absence de références bibliographiques concernant la croissance, la fructification et la nodulation des Psoralées, nous avons pu déterminer, en système de culture contrôlé, des conditions de végétation satisfaisantes pour les trois espèces étudiées : P. cinerea P. plumosa et P.martinii. La souche CB 2063, pour P. cinerea ainsi que les souches CB 2063 et USDA 3451 pour P. plumosa assurent une bonne croissance végétative ainsi qu'une optimisation des rendements en semences. Dans le cas de P. martinii, la souche USDA 74 3451 a conduit à une production importante en parties végétatives mais a eu peu d'incidences favorables sur la fructification. L'espèce P. martinii semble donc moins adaptée à l'objectif d'une production de furocoumarines par culture en serre car se poserait alors un problème délicat d'obtention de semences. En complément de la production de biomasse, il parait important de préciser la localisation et la quantité de furocoumarines présentes pour chacune des trois espèces afin de déterminer l'intérêt respectif de chaque organe.
75 CHAPITRE IV: ETUDE DE LA DISTRIBUTION ET DES TENEURS EN FUROCOUMARINES CHEZ TROIS ESPECES DE PSORALEES AUSTRALIENNES. 1/
INTRODUCTION. Le niveau de production de furocoumarines par une culture végétale peut être défini comme le produit de la biomasse récoltée par la concentration moyenne de ces molécules dans les plantes. Il est donc important d'optimiser la concentration en furocoumarines en même temps que la production de biomasse. Dans le cas des trois espèces végétales étudiées précédemment, nous avons pu voir que les rendements en semences et la production de biomasse n'étaient pas très élevés par plante. L'étude de la distribution et des teneurs en furocoumarines de ces végétaux apparait donc d'autant plus importante. Dans un premier temps, nous avons identifié les furocoumarines présentes puis analysé les teneurs dans les différents organes des trois espèces de Psoralées : P. cinerea, P. martinii, et P. plumosa. Les dosages ont été effectués à partir des récoltes de l'expérience avec les niveaux de fertilisation azotée de 50 uN/ha (feuilles ou tiges, fruits immatures et semences). Nous avons également analysé les échantillons correspondant à l'expérience en serre avec une fertilisation azotée équivalente à 120 uN/ha (P. cinerea). Lors d'une seconde étape, nous avons cherché à compléter ces résultats en testant différents facteurs susceptibles d'accroître la synthèse des furocoumarines. Ainsi, nous sommes nous intéressés à l'effet de températures élevées sur la production en furocoumarines. Ce type de démarche avait été entrepris par Innocenti et al (1976) montrant l'incidence de fortes chaleurs sur la synthèse de furocoumarines par le Persil. Chez certaines Ombellifères, l'état sanitaire de la plante interfère également sur la production de furocoumarines. Les teneurs peuvent être fortement augmentées lorsqu'une attaque d'organismes pathogènes intervient. Le rôle des furocoumarines comme phytoalexines a été clairement démontré pour cette famille végétale. Nous avons repris une démarche analogue sur les Psoralées étudiées et avons cherché à établir si, dans ce cas, les furocoumarines pouvaient également jouer le rôle de phytoalexines, ce qui constituerait un moyen d'accroître la concentration en ces molécules. Il a donc fallu choisir un traitement qui serait capable d'activer une réaction de type phytoalexine chez les végétaux. Or, certains produits chimiques comme le Na , le CuSO4 ou le CaOCI sont connus pour déclencher la production de phytoalexines chez le céleri (Beier et Oertli, 76 1983). Nous avons donc testé l'effet de ces divers traitements chimiques appliqués aux parties aériennes.
III MATERIELS ET METHODES. Matériel végétal. Pour le dosage des furocoumarines, nous avons utilisé, dans un premier temps, le matériel végétal (P. cinerea, P. plumosa et P. martinii) récolté à partir des expériences antérieures (chapitre III). En ce qui concerne l'étude de l'effet de la température et des traitements chimiques, nous avons retenu l'espèce P. cinerea (suite aux premiers résultats de dosages sur les trois espèces de Psoralées). Ces plantes ont été cultivées dans des pots isolés et inoculées avec la souche CB 2063 à raison de 109 bactéries par pot. La terre a également été fertilisée avec une dose d'azote équivalente à 80 unités de N par hectare afin de ne pas se trouver en situation d'azote minéral limitant. Les plantes ont été arrosées jusqu'à leur récolte au 2/3 de la capacité au champ. Expérience "température". L'expérience s'est déroulée avec une seule espèce: P. cinerea. Nous avons étudié le facteur température avec deux variantes: une température haute et une température basse dont les moyennes journalières étaient respectivement 31°C et 20°C. Nous avons récolté les plantes à deux stades différents de leur cycle de développement : au stade "bourgeons floraux" qui correspond à la fin de la période végétative et au stade "maturité des semences" coïncidant approximativement avec le milieu de la période de fructification. Pour chaque stade de récolte et pour chaque température nous avons fait pousser un lot de 10 plantes (10 répétitions). Cet essai a été réalisé à l'aide de deu~ phytotrons dans lesquels les conditions étaient les suivantes: - Photopériode de 15 heures. - Humidité relative de 75%. 77 - luminosité de 400 pmol.m- 2.s- 1. - Phytotron n01 : température de jour de 34°C, température de nuit de 28°C, moyenne journalière de 31,7 oC. - Phytotron n02: température de jour de 23°C, température de nuit de 17°C, moyenne journalière de 20,7°C. Au cours de l'expérience, nous avons réalisé un relevé biométrique une fois par semaine afin de suivre la croissance des plantes. Après 52 jours de culture, les deux lots de plantes placés jusque-là dans les mêmes conditions (équivalentes à celles du phytotron n02), ont été séparés pour être disposés dans leurs phytotrons respectifs à des températures différentes. Lors de la première récolte (fin du stade végétatif), nous avons dosé les furocoumarines présentes dans les feuilles. A la deuxième ré colte, nous avons également quantifié les furocoumarines des parties reproductrices (semences et fruits immatures). bl Expérience "phytoaléxines". Le facteur étudié a été la concentration en furocoumarines dans les divers organes de la plante: feuilles pour les parties végétatives, fruits pour les organes reproducteurs. Lors d'une expérience préliminaire,~nous avions déterminé les doses létales pour les trois produits chimiques et nous avons retenu des doses sub-Iétales : NaCI 3%, CuS04 10-2 M, CaOCI solution à 25% diluée au 1/75. Chaque traitement : témoin, CuS04, CaOCI. NaCI se composait de deux séries de 10 plantes. La première série a été traitée deux fois (pulvérisation de solutions salines ou d'eau pure dans le cas des témoins). Les plantes correspondantes ont été récoltées à la fin de la période végétative (lors de l'émission des premiers bourgeons floraux) et les feuilles ont été analysées. La seconde série a été soumise à quatre traitements successifs. Les plantes ont été récoltées durant la phase de maturation des fruits de manière à effectuer des dosages sur les feuilles, fruits et semences issus de chaque traitement. Nous avons également réalisé un relevé biométrique hebdomadaire afin de suivre la croissance des plantes.
I
dentification et
do
sage des furocoumarines des
végétaux
. al Extraction des furocoumarines des fractions végétales. Nous avons utilisé la méthode d'extraction des furocoumarines proposée par Innocenti et al (1984). Ce protocole est fondé sur la solubilité préférentielle de ces molécules dans les solvants organiques comme le méthanol ou l'éther de pétrole par rapport à l'eau (Prognon et al, 1985). II utilise également la propriété de recyclisation du cycle lactone des furocoumarines en milieu acide. Chaque fraction de végétal récolt a subi le protocole de la figure 21 : - pour chaque dosage, la prise d'essai a été de l'ordre de 3 g de matière sèche. - extraction au Soxhlet avec du méthanol bouillant pendant 48 heures (fraction 1). - les fragments végétaux sont repris par une attaque à l'acide (HCI 5%) à chaud durant deux heures. On sépare la fraction H 20-acide des fragments végétaux par filtration. - les fragments végétaux sont repris à nouveau dans un Soxhlet avec du méthanol bouillant pendant 48 heures (fraction II). - la fraction H20-acide est extraite avec un perforateur de Jalade avec de l'éther de pétrole pendant 48 heures (fraction III). La fraction 1 représente les furocoumarines sous forme libre dans le végétal, les fractions II et III correspondent aux furocoumarines sous forme glycosidée. bl identification et dosage des furocoumarines. Les furocoumarines des fractions végétales ont été identifiées par chromatographie sur couches minces par comparaison avec des étalons purs. Nous avons utilisé des plaques Merck, prêtes à l'emploi avec indicateur de fluorescence à 254 nm (référence : gel de silice 60F-254, épaisseur: 0,25 mm). Les étalons purs de furocoumarines ont été obtenus auprès des sociétés Extrasynthèse pour le psoralène, la xanthotoxine, l'angélicine et l'isopimpinelline et Bergaderm pour le bergaptène. Le solvant employé a été le chloroforme. 80 Le dosage quantitatif des furocoumarines à été réalisé par chromatographie liquide à haute performances (HPLC). Nous avons employé la méthode d'Innocenti et al (1984). Chaque fraction végétale a été quantifiée en utilisant un étalon interne. Celui-ci a été choisi après la phase d'identification des furocoumarines. Nous avons retenu la xanthotoxine car il s'agit d'une furocoumarine absente dans les Psoralées que nous avons analysées. Nous avon réalisé une gamme étalon pour chacune des furocoumarines présentes chez les Psoralées : le psoralène et l'angélicine. Les courbes de calibration ont été obtenues en préparant des solutions qui contenaient une quantité constante de psoralène et d'angélicine (0,2 mg) et une quantité variable de xanthotoxine (0,1 mg à 0.6 mg). Pour les deux furocoumarines dosées, nous avons obtenu une très bonne corrélation pour les points de la courbe: aire Etalon = f (mg étalol1) aire produit mg produit avec une droite de régression. Pour la gamme de furocoumarines dosées, la réponse enregistrée a été pratiquement linéaire. Il est à noter que cette droite passe par l'origine (cf annexe n01). Les mesures ont été effectuées sur deux modèles d'HPLC différents: - un appareil Waters constitué de pompes du modèle 510, d'un spectrophotomètre de type et d'un injecteur U6K. - un modèle Beckman composé de deux pompes modèle 126 d'un.détecteur de type 166 et d'un passeur d'échantillon SP8780. Dans les deux cas, nous avons employé une colonne constituée d'une phase normale (Merck LiChrosorb, Si 60 7J.lm) d'une longueur de 25 cm et d'un diamètre intérieur de 4 mm. Nous avons également monté une précolonne du même modèle mais d'une longueur de 2,5 cm. Le gel de silice de cette précolonne était changé, en moyenne, toutes les 10 injections d'échantillons. Pour la détection des furocoumarines, nous avons utilisé un spectrophotomètre réglé sur 300 nm. Cette longueur d'onde caractérise l'absorption des cycles lactones (Yeargers et Augenstein, 1965). Le mélange de solvants constituant la phase mobile comprenait du N-hexane et du chloroforme en proportion 70/30.
RFSULTATS. 1/ Dosage des furocoumarines. al
Etude de la précision de la méthode de dosage des furocoumarines. Nous pouvons identifier les sources d'erreurs dans la méthode de dosage proposée: - une certaine erreur est due à la limite de la méthode d'extraction des furocoumarines. Innocenti a pu montrer (comm. perso.) qu'au terme des temps d'extractions proposés (48 heures pour les fractions 1 II et III) on n'augmentait pas la quantité de furocoumarines extraites. - une part de l'erreur peut être attribuée à une certaine imprécision lors de l'ajout de l'étalon interne. - enfin, il existe une certain e variabilité due au dosage à l'HPLC si l'on injecte deux fois le même échantillon. La première source d'erreur ne nous a pas préoccupés outre mesure. En__effet, dans le cas où l'on chercherait à produire des furocoumarines en utilisant des cultures de Psoralées, ce reliquat de furocoumarines ne serait pas non plus extractible. Il présente donc peu d'Intérêt. Les deuxième et troisième sources d'erreur ont été évaluées globalement en dosant les furocoumarines dans un échantillon pour lequel nous connaissions déjà les teneurs en psoralène et angélicine. Pour cela, nous nous sommes procuré un végétal qui ne contenait pas de furocoumarines (blé). Nous avons prélevé une prise d'essai équivalente à celle utilisée avec les Psoralées (environ 3 grammes de matière sèche) et avons ajouté lors de la première extraction au Soxhlet une quantité connue de psoralène et d'angélicine. L'échantillon a alors été traité selon le protocole de dosage décrit plus haut. Au moment du dosage à l'HPLC, chaque fraction I, II et III a été injectée 5 fois. Nous avons réalisé deux expériences de pourcentage de récupération. Dans les deux cas, et pour les 5 séries d'injection, la plus forte erreur enregistrée par rapport à la quantité réelle de psoralène et d'angélicine a été de 5%. 83 L'erreur de la méthode de dosage est donc d'environ de l'ordre de 5% pour le niveau de furocoumarines que nous avons dosé. Ainsi, une teneur en psoralène de 100 ppm pourra être considérée comme fiable à 5 ppm près. Le niveau de précision peut être considéré comme adapté à la détermination des espèces et des organes les plus riches. La troisième source d'erreur a été plus précisément évaluée en faisant 10 irijections consécutives à l'HPLC d'une solution donnée contenant du psoralène, de l'angélicine et de la xanthotoxine. La variation enregistrée est de l'ordre de 0,5 %. Ceci atteste de la précision de la phase ultime de dosage à l'HPLC. b/ Etude de la répartition et de la teneur en furocoumarines de quelques espèces de Psoralées. Nous avons d'abord déterminé par chromatographie sur couches minces les différentes furocoumarines présentes dans les fractions tiges des trois espèces : P. cinerea, P. plumosa et P. martinii. Seuls le psoralène et l'angélicine ont pu être mis en évidence : ce sont donc les seules furocoumarines présentes chez ces trois espèces végétales. L'étape suivante a consisté à quantifier ces produits. Les figures n° 22 (a, b, c), 23 et 24 (a, b) représentent les teneurs en furocoumarines de différents organes des espèces P. cinerea, P. martinii et P. plumosa. Les parties végétales dosées ont été récoltées dans le cadre de l'expérience avec le niveau d'azote de 50 uN/ha. Nous pouvons constater que tous les échantillons végétaux analysés, y compris les parties végétatives, contiennent des furocoumarines. Il faut cependant remarquer que la teneur en furocoumarines est plus forte dans les organes reproducteurs que dans les feuilles ou les tiges. Il semble donc, conformément aux travaux sur les Ombellifères (Ivie, 1978 ; Ceska et al, 1987 ; Enriquez et al, 1984), que l'essentiel de la synthèse des furocoumarines s'accomplisse dans les organes reproducteurs. En revanche, comme les dosages se rapportent à des organes récoltés à la fin de la période de fructification, nous ne pouvons pas conclure sur la capacité de synthèse des parties végétatives. En effet, les furocoumarines rencontrées dans les feuilles ou les tiges pourraient résulter d'une translocation de ces molécules depuis les fruits vers les organes végétatifs Si l'on compare les teneurs en furocoumarines d'une espèce à l'autre, on remarque que les fortes concentrations sont obtenues dans le cas de P. martinii. Ainsi, lorsque cette espèce est inoculée avec la souche USDA 3451, les feuilles contiennent des teneurs en furocoumarines totales (angélicine + psoralène) d'environ 8000 ppm. L'espèce
84 Figure 23 Teneur en furocoumarines des feuilles de P. martinli (culture en phytotron). teneur
en
mlllleri
de 6 5.01 fi "' 3 2 0.101 0.044 0 0.0280.012 USDA 3100 temoln _ Angellotne USDA 3",51 azote (50 uNIHa) _Paoralene
Figure 24a Teneur en furocoumarines des tiges de P. plumosa (culture en phytotron). teneur en ppm. 600
500 "'00 300* 200 100 0 Te_In ca 10es _ Angelletn. Figure 24b Teneur en furocoumarines des semences de P. plumosa (culture en phytotron). eur
P. cinerea présente également des quantités importantes. Les teneurs en furocoumarines totales dépassent 4500 ppm dans les fruits immatures de plantes inoculées avec la souche USDA 3451. L'espèce P. plumosa, quant à elle, semble se situer au même niveau de concentration que P. cinerea. Les concentrations maximales de furocoumarines totales mises en évidence dans les semences des deux espèces avoisinent les 2000 ppm. Nous pouvons 'également comparer les teneurs en furocoumarines pour les différents types d'inoculations, la fertilisation azotée et les témoins. On constate alors que les plus fortes teneurs en furocoumarines correspondent aux traitements qui ont conduit à la meilleure croissance végétative et aux meilleurs rendements en semences. Pour P. cinerea, il s'agit de l'inoculation avec la souche CB 2063 dans le cas des feuilles ou du traitement USDA 3451 (contaminé par cette même souche CB 2063) pour les semences et les fruits immatures. On retrouve le même cas de figure chez P. martinii. Les plus fortes concentrations dans les feuilles ont été obtenues pour des plantes inoculées avec la souche USDA 3451. c/ Effets comparés de l'inoculation et d'une fertilisation azotée à 120 uN/ha sur les teneurs en furocoumarines.
Les
figures n°
25
(a, b
,
c
)
indi
quent les
teneurs en furocoumarines dans
les
différent
s
organ
es
de
l'esp
èce P. cinerea
. Ces résultats
correspondent à
l'
expérience
réalisée en serre, avec un
niveau
de
fertil
isation azotée de 120 tiN/ha. On
remar
que que la répartition des furocoumarines entre les organes est globalement respectée par rapport à l'expérience précédente sur P. cinerea. Ainsi, les deux traitements inoculé et fertilisé présentent des concentrations plus importantes dans les organes reproducteurs (fruits immatures et semences) que dans les feuilles. Il semble que la teneur en furocoumarines totales soit d'ailleurs plus importante dans les fruits immatures que dans les semences. On peut également de nouveau remarquer que les traitements inoculé et fertilisé qui avaient conduit à une bonne croissance se détachent nettement du témoin en ce qui concerne les teneurs des organes reproducteurs. Si l'on compare les teneurs des traitements témoin et CB 2063 pour cette expérience et celle conduite avec une fertilisation azotée plus faible, on peut relever quelques différences (figures 22 a, b, c et 25 a, b, c). Certes, les niveaux de psoralène et d'angélicine dans les feuilles et les semences des témoins sont comparables. En revanche, 88 pour les traitements CB 2063, les teneurs sont nettement plus importantes dans le cas des feuilles obtenues en phytotron et des semences récoltées en serre. Nous avons considéré précédemment que la majorité des furocoumarines sont élaborées dans les fruits en cours de maturation. Dans ce cas, les répartitions de furocoumarines différentes entre les feuilles et les semences récoltées en phytotron ou serre pourraient suggérer un phénomène de translocation. L'hypothèse peut se résumer ainsi : _ Pour la culture en phytotron de P. cinerea X CB 2063, il y a eu redistribution des furocoumarines synthétisées dans les fruits vers les feuilles. Pour la culture en serre de P. cinerea X CB 2063, les furocoumarines élaborées dans les fruits immatures n'ont pratiquement pas subi de translocation et se retrouvent dans les fruits à maturité. 21 Effet de la température sur la synthèse de furocoumarines. al
Teneur en furocoumarines à la première récolte. La température semble exercer un rôle favorable dès le stade "bourgeons floraux" sur la production de furocoumarines (figure n026). En effet, on trouve respectivement 3 fois plus d'angélicine et 8 fois plus de psoralène dans les feuilles des plantes qui ont poussé dans les conditions les plus chaudes. bl Teneur en furocoumarines à la seconde récolte. Les furocoumarines ont été extraites des feuilles et fruits immatures pour les plantes du phytotron à 31°C et uniquement des feuilles dans le cas du phytotron à 20°C. La quantité de fruits immatures récoltés était insuffisante, à 20°C, pour faire l'objet d'une extraction. En conséquence, seules les concentrations mesurées dans les feuilles peuvent être comparées (figure n027). On constate à nouveau une production de furocoumarines nettement supérieure dans le phytotron à 30°C, ce qui confirme l'effet favorable d'une température élevée. Il convient toutefois de noter que l'augmentation de la concentration est beaucoup moins forte qu'à la première récolte puisque les teneurs ne sont même pas doublées. Les fruits immatures obtenus à 31°C contiennent des quantités de furocoumarines totales assez élevées (plus de 1000 ppm), bien supérieures à celles des feuilles. Outre l'effet favorable sur les concentrations en furocoumarines, l'élévation de température entraîne aussi une croissance plus importante (figures n028 et 29). Ceci assure une production accrue en furocoumarines par unité de surface. 89
Figure 28 50 Croissance en hauteur de P. cinerea selon le traitement thermique. hauteur en cm separation des 2 lots "- 10 o 24 34 -.~ ~.,.*" ~ t 44. 5464 74 jours apres la germination
~ Figure 29,.. ;t: 20 C
84 94
--+-. 31 C Evolution du phyllochrone chez psoralea cinerea selon les traitements thermiques rang derniere feuille
- 20~----------------------------------------~ + 15~---------------------------.~.~----------~,., ••4"".-+ • 10~------------------~~--~~------------~ 5~-------=--------------------------------~ O~--~----~----~----~----~----~--~~~ 24 34 44 54 64 74 joursapres la germination - 20 C +-. 31 C 84 94 91
Les expériences sur le facteur température confirment également la capacité de synthèse des furocoumarines par les organes végétatifs (feuilles). La première récolte, réalisée avant la mise à fleur a, en effet, révélé la présence de furocoumarines à ce stade précoce de la végétation et pour les deux traitements thermiques. Ces résultats sont à rapprocher de ceux de Steck et Bailey (1969) qui ont démontré que plusieurs furocoumarines pouvaient se former dans les feuilles li: Angelica archangelica. 3/ Effet de traitements chimiques sur la concentration en furocoumarines. Nous avons pu constater que les agents stressants produisent des lésions de différentes natures à la surface des végétaux (essentiellement les feuilles). - le NaCI affecte l'ensemble de la feuille mais ne provoque pas de lésion de la cuticule. L'effet observé correspond à un recroquevillement des feuilles, mimant ainsi l'action d'un stress hydrique mais non d'une nécrose. - le CaOCI affecte l'ensemble de la feuille en formant des taches nécrotiques de quelques millimètres de diamètre. Lors de fortes applications, la feuille brunit sur toute sa surface (photographie n011). - le CuS04 provoque l'apparition de minuscules points nécrotiques noirs répartis sur toute la feuille. En apparence, ce traitement perturbe moins les plantes que les deux autres (photographie n012). Les teneurs en psoralène et angélicine des feuilles ont été quantifiées pour les deux dates de récolte. Les résultats sont présentés respectivement sur les figures n030 et 31. Pour les trois traitements: témoin, NaCI et CaOCI on observe une stagnation ou une décroissance en angélicine et psoralène entre la première et la seconde récolte. En revanche, les dosages effectués sur les feuilles traitées au CuS04 montrent une forte augmentation des concentrations tant en psoralène (10 fois plus) qu'en angélicine (12,5 fois plus) entre les deux récoltes. Il faut également noter que les concentrations en psoralène et angélicine lors de la deuxième récolte sont respectivement 8,5 fois et 6,5 fois plus importantes que pour le traitement témoin. Lors de la seconde récolte nous avons également quantifié les niveaux de psoralène et d'angélicine des parties reproductrices (fruits immatures et semences) pour les quatre traitements. Les résultats sont présentés sur les figures 32 et 33. Ils montrent tous une augmentation de la concentration dans les organes fructifères et les semences des traitements stressés par rapport aux témoins. Cependant, le traitement CuS04 est encore celui qui donne pour les organes reproducteurs les plus fortes concentrations en
92 Photo 11 effets du traitement au CaOCI sur les feuilles de P. cinerea Photo 12 effets du traitement au CuS04 sur les feuilles de P. cinere a 93 Figure 32 Effet des traitements chimiques sur la teneur en psoralene chez P.cinerea (seconde recolte) concentrations en ppm 1400 1101 1131 1200 1000 800 800 400 200 o Temoin NaCI _ Figure 33 Fruits immatures CaOCI P:':':::':'::::'j CuS04 Semences Effet des traitements chimiques sur la teneur en angelicine chez P. cinerea (seconde recolte). concentrations en milliers de ppm 5 4.394 Temoin NaCI _ Fruits Immatures CaOCI r::::;:.:~:~;:.:l Semences CuS04 95 angélicine et en psoralène (respectivement 4 et 2,8 fois plus que pour le témoin). Les relevés biométriques réalisés montrent logiquement une meilleure croissance du traitement témoin (non traité) aussi bien pour la hauteur que pour le nombre de feuilles (figures n034 et 35). Cependant les pertes de production de biomasse induites par les pulvérisations successives
sont peu marqu
ées
.
Les
traitements chimiques
augment
ent donc
la
concentration
en furocoumarines pour une production de matière sèche à peu près constante.
4/ Etude
de la quantité de furocoumarines produite par plante. L'Intérêt de la culture d'une espèce végétale pour la production d'un métabolite secondaire dépend essentiellement de la concentration du produit dans la plante et de la quantité de matière sèche récoltable par plante. Il nous a semblé intéressant d'intégrer simultanément ces deux paramètres dans les tableaux n06 à 9 qui restituent les rendements par plante en psoralène et angélicine. Les chiffres ne concernent que les expériences comparées de fertilisation/inoculation conduites en phytotron ou en serre. Les meilleurs résultats de rendements par plante ont été obtenus pour: - P. cine1-ea : en serre, avec les traitements CB 2063 et 120uN/ha; en phytotron, avec les traitements CB 2063 et USDA 3451 (mais nous avons vu que ce traitement était une contamination due à la souche CB 2063). - P. plumosa : en phytotron avec les traitements CB 2063 et USDA 3451. _ P. martinii : en phytotron avec le traitement USDA 3451. Pour l'ensemble de ces traitements, les quantités totales de furocoumarines enregistrées sont supérieures à 1 mg par
Production de furocoumarine par plante pour l'espèce P. cinerea
selon le type
d'
inoculation
ou de fertilisation (résultats en
~g
/plante
,
expérience
en phyto
tron). P c~nerea X temoin Angélicine Psoralène P. feuilles semences Total 45,6 4,0 RI 49,6 9,8 0,1 RI 9,9 feuilles semences c~nerea X CB 2063 Total Angélicine 491,4 744,6 534,5 1770,5 Psoralène 156,4 219,5 162,8 538,7 P. cinerea X USDA 3100 feuilles semences Total Angélicine 29,9 RI RI 29,9 Psoralène 16,5 RI RI 16,5 P. cinerea -- X USDA 3451 feuilles semences Total Angélicine 76,4 357,6 1065,1 1499,1 Psoralène 45,6 69,8 236,0 351,4 P. cinerea X N RI feuilles semences Total Angélicine 37,7 196,8 RI 234,5 Psoralène 14,0 64,5 RI 78,5 récolte insuffisante pour permettre la quantification. 98
Tableau n08 : production de furocoumarines par plante pour P. plumosa selon le type d'inoculation ou de fertilisation (résultats en pg/
plante, expérience en phytotron). P p l umosa X P temoin tiges Angélicine 156,0 RI ND 156,0 Psoralène 3,1 RI ND 3,1 p l umosa X CB 2063 tiges semences semences Total Total Angélicine 101,3 2178,8 ND 2280,1 Psoralène 33,5 644,0 ND 677,5 P. plumosa X USDA 3451 Total tiges semences Angélicine 86,1 2378,1 ND 2464,2 Psoralène 21,3 954,0 ND 975,3 P. plumosa semences X N RI ND tiges Total Angélicine 80,9 ND ND 80,9 Psoralène 25,7 ND ND 25,7 récolte insuffisante pour permettre la quantification. non déterminé. 100
IV/ DISCUSSION. Dans toutes nos expériences de dosages, nous n'avons rencontré que deux types de furocoumarines : le psoralène et l'angélicine. L'angélicine est toujours représentée en plus grande quantité Ces observations concordent avec celles rapportées par Innocenti et al (1984) sur les semences des trois mêmes espèces de Psoralées. En revanche, nos résultats différent sensiblement de ceux de ces mêmes auteurs en ce qui concerne la richesse respective de chacune des espèces. Pour nos expérimentations, les plus fortes concentrations ont été obtenues avec P. martinii et P. cinerea et il semble que P. plumosa présente des teneurs plus faibles que celles annoncées par ces auteurs. 1/ Adéquation de la méthodologie au dosage des
furocoumarines dans les végétaux.
On a pu voir que la méthode de dosage des furocoumarines dans les végétaux était précise mais qu'elle nécessitait une prise d'essai assez importante (environ 3 g de matière sèche). A ce titre, la présente méthode se prête peu à l'étude de la concentration en furocoumarines organe par organe pour une seule plante car la prise d'essai de 3 g de matière sèche excède souvent les capacités de production de biomasse d'un individu. Ainsi, l'étude des phénomènes de translocation des furocoumarines au cours du temps nécessiterait une technique analytique plus économe en prise d'essai. On peut penser en particulier aux méthodes immunologiques telles que le test E.L.I.S.A. qui permettent d'opérer avec un échantillon réduit (quelques mg de matière fraîche). Cette méthode consisterait dans notre cas à disposer d'un anticorps polyclonal (moins cher que les monoclonaux) présentant une bonne spécificité pour les furocoumarines et permettant leur dosage dans les parties végétales. Cette technique de dosage serait, par ailleurs, directement applicable sur des parties végétales fraîches, non extraites à l'aide de solvants. Concentration en furocoumarines. Si l'on s'intéresse aux résultats obtenus à partir des expériences sur les inoculations et la fertilisation, il semble que nous ayons mis en évidence un effet de la nutrition azotée sur les concentrations en furocoumarines. Les plus fortes teneurs ont été observées avec les plantes qui présentaient les meilleures croissances : soit qu'elles étaient inoculées avec des souches efficaces soit qu'elles étaient fertilisées abondamment (120uN/ha). En d'autres termes, nous avons démontré l'incidence d'un métabolisme 101 primaire, celui de l'azote, sur la régulation d'un métabolisme secondaire celui des furocoumarines. La température intervient également directement sur la teneur en furocoumarines. Nos résultats rejoignent ceux observés par Innocenti et al (1976) sur le persil : les périodes de fortes chaleurs provoquent une augmentation de la concentration en furocoumarines. L'expérience relative aux traitements chimiques suggère de nombreuses remarques. A la première récolte, aucune augmentation de la teneur en furocoumarines n'a été constatée pour les traitements chimiques par rapport au témoin. Toutes les plantes correspondantes n'ayant alors été traitées que deux fois, on peut évoquer plusieurs hypothèses comme: - un nombre de traitements chimiques, et donc d'agressions insuffisants. - l'existence de stades phénologiques plus sensibles que d'autres à l'application de produits chimiques. L'augmentation de concentration en furocoumarines des feuilles du traitement CuS04 semble bien indiquer une réponse de type phytoalexine de l'espèce P. cinerea. Pour ce qui est des organes reproducteurs, les trois traitements testés ont conduit à un effet de type phytoalexine, même avec NaCI et CaOC!. Le terme de phytoalexine doit cependant être employé avec une certaine réserve. Si les furocoumarines sont des phytoaléxines chez les Psoralées, cela suppose: 1/ que ces molécules exerçent une action antimicrobienne, ce qui est classiquement admis, 2/ que la concentration de ces molécules augmente dans le cas d'une attaque de la plante par un pathogène. Or dans notre expérience, nous n'avons envisagé que l'effet de traitements chimiques connus pour simuler l'action de pathogènes chez d'autres plantes comme le céleri (Beier et Oertli, 1983). Dans le cas précis où les plantes ont été traitées avec du NaCI, nous avons vu que ce produit induisait un stress hydrique. L'effet favorable de ce traitement sur la concentration en furocoumarines des organes reproducteurs nous conduit donc à penser que l'alimentation hydrique de la plante intervient aussi de manière importante sur le métabolisme de ces molécules.
En
le rôle des furocoumarines chez les Légumineuses du genre Psoralea rejoint tout à fait celui mis en évidence chez les Ombellifères. L'intervention dans le processus de germination avait été démontré (Baskin et al, 1967), et il semble bien que l'on puisse évoquer aussi le rôle de phytoaléxines. Plus généralement, ces molécules sont produites en quantité plus importante lorsque les Psoralées sont confrontées à des conditions environnementales difficiles (stress hydrique, fortes températures, agressions chimiques). 3/ Intérêt d'une culture de Psoralées en vue de la production de furocoumarines.
Nous avons déterminé un ensemble de paramètres intervenant sur la concentration en furocoumarines de quelques espèces de Psoralées australiennes. A partir de ces données, Il est possible de proposer des conditions de culture (température, nutrition azotée, stade de récolte) et des traitements commodes d'emploi (pulvérisations de produits chimiques simples) qui permettent d'optimiser les teneurs en ces métabolites secondaires. Des résultats de dosages présentés précédemment, nous pouvons nous risquer à extrapoler une production de furocoumarines par unité de surface. Il suffit pour cela de se fixer une densité de peuplement. Compte tenu de la taille des espèces étudiées il est raisonnable d'avancer le chiffre de 100 plantes par m 2, soit une plante tous les 10 cm. Si l'on s'en tient aux chiffres de production de furocoumarines par plante obtenus à partir des expériences réalisées en serre et en phytotron, on obtient alors les "rendements" indiqués dans tableau suivant. Angélicine Psoralène P. cinerea X CB 2063 (en serre) 4200 870 P. cinerea X CB 2063 (en phytotron) 1770 540 P. cinerea X 120uN/ha (en serre) 1820 420 P. plumosa X CB 2063 (en phytotron) 2280 680 P. plumosa X USDA 3451 (en phytotron) 2460 970
Si l'on considère le prix de revient actuel du psoralène par synthèse chimique pure (de l'ordre de 40 000 F le kg), les chiffres de tableau nOlO apparaissent intéressants. Ces perspectives ne prennent pas en compte les gains de production (concentrations plus élevées en psoralènes) qu'il est cependant possible d'obtenir en jouant sur les conditions de culture. Nous avons vu que par la simple application de pulvérisations de produits chimiques, il était possible de multiplier les teneurs par un facteur de 3 à 4. La présente hypothèse renforce donc encore l'Intérêt de la culture de Psoralées pour la production de furocoumarines.
104 CHAPITRE V: ESSAIS DE CULTURES IN-VITRO DE CELLULES DE MESOPHYLLE DE PSORALEES. Il INTRODUCTION. Dans l'état actuel de nos connaissances, la production de furocoumarines par une culture de Psoralées (en serre ou plein champ) peut être envisagée, du moins dans un premier temps sur une surface pilote. Cependant, la culture de plantes entières de Psoralées pourrait s'accompagner de quelques problèmes. En particulier, nous avons montré que la concentration en furocoumarines est fortement dépendante des conditions du milieu (température, nutrition azotée, plante en état de stress). Bien entendu, nous n'avons probablement pas analysé l'ensemble des facteurs environnementaux intervenant sur la teneur en métabolites secondaires et il est possible que certains paramètres défavorables à un rendement élevé en furocoumarine nous aient échappé. Aussi, nous sommes nous intéressés à une autre technique de production de métabolites secondaires qui permettrait de s'affranchir de la variabilité inhérente à la culture de plantes entières : la culture in-vitro. Dans le cas où une telle méthode de synthèse serait possible, il serait plus aisé d'obtenir une bioproduction de furocoumarines contrôlée et stable. Notre réflexion s'est appuyée sur de nombreuses références bibliographiques dans le domaine des cultures in-vitro. Il nous semble souhaitable d'en présenter rapidement les données essentielles.
RAPPELS BIBLIOGRAPHIQUES. 1/ Choix du matériel végétal pour l'établissement des souches. La première question fondamentale lors de la mise en oeuvre d'une culture de cellules est celle du choix du matériel de départ. Il existe peu de travaux sur la corrélation possible entre les capacités de production d'un métabolite en culture in vitro et les teneurs observées chez la plante mère. La plupart des auteurs (Rideau, 1988 ; Zryd, 1988) admettent cependant, depuis les travaux de Zenk et al (1977), qu'il est souhaitable d'initier une culture à partir d'un individu à fortes potentialités de production. 105 Le second problème est celui du choix de l'organe dont on doit isoler les cellules. En théorie, les cellules une fois mises en cultures ont perdu, par définition, leur organisation en tissus et sont toutes sensées exprimer leur pouvoir de totipotence. De fait, cette propriété a été souvent constatée: deux explants différents issus d'une même plante conduisent à des cultures de cellules aux mêmes caractéristiques tant du point de vue du spectre des métabolites que du point de vue de leur quantité (Bôhm, 1980; Rideau, 1988; Zryd 1988). La feuille, cependant, semble être un organe qui se prête bien à la culture de cellules séparées car les liaisons intercellulaires y sont généralement fragiles. Une des étapes fondamentales dans l'établissement de souches cellulaires destinées à la culture in-vitro est la phase de sélection et de stabilisation de différentes lignées. Elle nécessite généralement un nombre important de clonages et l'on doit aussi souvent que possible évaluer les capacités biosynthétiques de chaque clone. Ce travail ne peut s'inscrire que dans une étude à moyen terme et nous ne l'avons pas entrepris ici. Il faut également pouvoir disposer d'un test suffisamment sensible permettant d'apprécier la productivité des différentes lignées cellulaires pour les métabolites recherchés A ce titre, nous avons déjà évoqué le problème posé par la méthode de dosage à l'HPLC qui est précise mais nécessite une prise d'essai importante. Là encore, cette technique semble peu adaptée à l'évaluation des potentialités de production des différentes souches cellulaires où il faut pouvoir opérer à partir de quelques milligrammes de matière fraîche. La méthode immuno-enzymatique E.L.l.S.A. apparait plus indiquée et a déjà été employée dans des études analogues pour le dosage de métabolites secondaires du type alcaloïdes (Fliniaux et al, 1988). Obtention de cellul
es isolées
.
La dissociation d'un tissu végétal en cellules isolées peut s'obtenir à partir de méthodes enzymatiques ou mécaniques. Les techniques mécaniques furent historiquement les premières mises en oeuvre (Gautheret, 1959) mais suivant les espèces végétales, la viabilité des cellules est très incertaine. Jullien et Rossini (1976) ont testé les aptitudes à la dissociation mécanique d'environ 200 espèces différentes. Les résultats montrent que la méthode n'est pas applicable à toutes les espèces puisque le taux de réussite est d'environ 10%. En revanche, l'aptitude est en partie dépendante du genre du végétal. Chaumont et Gudin (1985) ont appliqué la méthode décrite par Jullien et Rossini (1976) à l'espèce P. bituminosa. Cette plante, selon leurs conclusions, est particulièrement adaptée à la dissociation des cellules (environ 60% des cellules foliaires sont dissociables et viables). 106 La méthode enzymatique consiste à faire agir des pectinases sur le tissu foliaire. Cependant, cette technique ne permet pas d'obtenir de grandes quantités de cellules aussi rapidement que la méthode mécanique (Jullien et Rossini, 1976). La dissociation mécanique est donc préférable lorsqu'elle est possible. On peut également obtenir une suspension de cellules végétales à partir de cals déjà développés. En effet, ces amas cellulaires sont constitués de cellules peu jointives et friables, facilement dissociables par agitation (Dixon, 1985). 3/ Choix du milieu
de culture
.
La croissance cellulaire in-vitro est étroitement dépendante du milieu de culture choisi et en particulier des régulateurs de croissance ou hormones. Chaumont et Gudin (1985), lors de leur étude relative à P. bituminosa, ont testé un milieu identique à celui décrit par Murashige et Skoog (1962) en le supplémentant avec différentes substances de croissance (auxines et/ou cytokinines). Il n'ont observé aucune croissance en absence d'hormones ou en présence de 2,4-D dans le milieu. Les meilleures croissances ont été obtenues avec un milieu contenant 1 mg/l d'acide naphtalène-acétique (NAA) ou d'acide indole-acétique (IAA) et 0,1 mg/l de kinétine (K). La croissance maximale obtenue correspondait à une augmentation du nombre de cellules de 30% au bout de 3 semaines de culture. En plus-de son action directe sur la division et la croissance cellulaire, la composition du milieu de culture intervient sur la régulation du métabolisme secondaire. L'influence peut être due aux macroéléments : ainsi Fujita et al (1981) ont montré l'importance de la source d'azote dans le cas de cultures en suspension de Lithospermum erythrorhizon pour la production de shikonine (inhibition dans le cas d'un apport d'ammonium). Yazaki et al (1987) poursuivant ces travaux sur le même matériel végétal ont observé que l'effet défavorable de l'ammonium est dû à l'accumulation d'un acide aminé : la glutamine. Ce mécanisme peut être mimé en ajoutant de la glutamine au milieu de culture. Les hormones présentes dans le milieu influent également sur la production de métabolites secondaires. Bôhm (1980) et Bôhm et Franke (1982) ont obtenu une plus grande production d'alcaloïdes dans le milieu de culture Macleaya microcarpa lorsqu'ils augmentaient la quantité d'auxines. La quantité d'oxygène dissous dans le milieu de culture intervient aussi sur la régulation des métabolismes seconàaires. Hara et al (1987) ont pu le montrer sur la production de shikonine des cultures de Lithospermum erythrorhizon. La lumière exerce également une action fondamentale dans le cas de métabolites secondaires synthétisés dans le chloroplaste (Wink et al, 1980). 107 A la lecture de ces travaux, notre objectif principal a été d'évaluer la capacité des Psoralées à donner des cultures de cellules isolées en milieu liquide. Il s'agissait donc d'une part de mettre au point une technique de dissociation des cellules et d'autre part de déterminer des conditions de culture favorables à la croissance. III! MATERIElS ET METHODES. 1/ Cultures cellulaires en milieu liquide. al Matériel végé
tal. Parmi les trois espèces de Psoralées australiennes analysées précédemment, nous avons retenu pour cette étude: P. cinerea et P. martinii. Ces deux espèces présentaient en effet des concentrations en furocoumarines plus importantes que l'espèce P. plumosa. Nous avons décidé d'expérimenter la dissociation des cellules à partir des feuilles. En effet, dans notre étude sur la concentration des différents organes, nous avons montré que les cellules foliaires étaient capables de synthétiser les furocoumarines en quantité importante. La germination et le repiquage des plantules se sont déroulés comme décrit précédemment (scarification manuelle). Les plantes ont été conduites en serre (température maximale de 35°C, température minimale de 14°C, photopériode moyenne de 14 heures). Afin de nous placer dans les conditions les plus favorables pour une synthèse importante des furocoumarines dans les plantes mères, les Psoralées ont été inoculées au stade 4 feuilles (P. cinerea a été inoculée avec la souche bactérienne CB 2063 et P. martinii avec la souche USDA 3451). Toutes les plantes ont également reçu un apport d'azote équivalent à 120u Nlha pour que les conditions de nutrition azotée soient optimales. 108 bl Matériel et milieu de culture. Nous avons utilisé le milieu de culture composé des macro-éléments, microéléments et vitamines de Murashige et Skoog (1962). Il s'agissait d'un milieu prêt à l'emploi, ne contenant ni sucre ni hormones végétales (Flow Laboratories, cat n° 26 100 22). Ce milieu a été complémenté avec du saccharose à raison de 30 g/l. Le pH a été ajusté à 6,2 avec du NaOH IN avant autoclavage. La stérilisation a été réalisée par autoclavage à 120°C pendant 20 mn. Les hormones de croissance ont été ajoutées après autoclavage du milieu par filtration stérilisante (filtre de porosité 0,45 pm). L'asepsie nécessaire aux cultures in-vitro requiert l'utilisation de matériel préalablement stérilisé et la réalisation de l'ensemencement dans des conditions stériles: - stérilisation de la verrerie par chaleur humide à l'autoclave (120°C pendant 20 mn). - stérilisation des instruments de travail (pinces, scalpels, spatules) à la flamme après trempage dans l'éthanol. - stérilisation des tamis cellulaires (à mailles en nylon) par trem dans l'éthanol. Les tamis sont alors rincés trois fois à l'eau stérile. - mise en culture sous hotte à flux laminaire. Des lampes U.V. assurent la -stérilisation de la hotte (10 mn chaque matin). cl Stérilisation des feuilles. Les feuilles ont été récoltées sur les plantes cultivées en serre. Nous avons employé une méthode usuelle de désinfection de la surface des feuilles : trempage de quelques secondes dans de l'éthanol (90% v/v) puis bain dans de l'hypochlorite de calcium à 7%. L'hypochlorite est préalablement filtré sur papier Whatman car si des particules étaient présentes, elles pourraient produire des points de nécrose importants sur les feuilles. Pour P. martinii, les temps de stérilisation ont été de 10 s dans l'éthanol et 15 mn dans l'hypochlorite: le taux de contamination est alors d'environ 5%. Dans le cas de P. cinerea, nous avons rencontré plus de problèmes pour l'asepsie. Avec le même protocole la contamination atteint 37%. Nous avons donc augmenté les temps de séjour dans les solutions stérilisantes (30 s dans l'éthanol et 25 mn dans CaOCl). Après la désinfection, les feuilles ont été rincées deux fois à l'eau distillée stérile. 109 dl Dissociation des cellules foliaires et mise en culture. Nous avons employé la méthode de dissociation mécanique proposée par Jullien et Rossini (1976) qui a donné de bons résultats. Le matériel nécessaire à la dilacération des tissus foliaires était constitué d'un tube à essai (d = 16 mm) rempli sur un quart de hauteur de billes de verres (d = 2 à 4 mm) auxquelles on ajoute du milieu de culture (1/4 du volume du tube). Les tubes à dilacération ainsi réalisés ont été stérilisés à 120°C pendant 120 mn. La dissociation des cellules s'est effectuée, après l'introduction stérile des fragments de feuilles dans les tubes, par un broyage contre les billes de verre à l'aide d'une spatule. Le jus cellulaire alors obtenu a été filtré à travers un tamis d'une porosité de 50 pm afin de n'introduire dans les flacons de culture que des cellules isolées ou groupées par 3 ou 4. Nous avons constitué nous-mêmes les tamis à l'aide d'une toile de nylon calibrée à 50 pm que nous avons montée sur un cerclage en fer de bouchon de flacon serum. Les flacons de culture contenaient 50 ml de milieu. Il ont été bouchés avec du coton cardé recouvert de papier d'aluminium. Ils ont ensuite été placés sur un agitateur rotatif (100 rev/mn) dans une chambre de culture thermorégulée (température constante 25°C ± 1°C, photopériode de 16 heures, intensité lumineuse de 300 pmol.m- 2.s- 1). el Comptage des cellules. Nous avons contrôlé la croissance des cultures en milieu liquide en évaluant la concentration cellulaire à l'aide d'une lame de Malassez. Pour chaque flacon, nous avons effectué la moyenne de trois répétitions de comptage (trois prises d'essai dans le flacon). Un comptage était lui-même composé de la moyenne de 8 observations sur 8 carrés différents de la lame de Malassez.
| 49,910
|
c83ccb221b16963c96e904a2c007df9e_10
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,021
|
Synthèse : Priorités politiques pour une digitalisation bénéficiant à tous en Afrique
|
None
|
French
|
Spoken
| 7,005
| 13,896
|
L’équité dans l’accès aux infrastructures passe par la proactivité des pouvoirs
publics
La définition de cadres réglementaires est fondamentale pour assurer un accès
universel aux infrastructures de communication, de même que leur utilisation,
notamment dans les régions reculées et défavorisées sur le plan économique. Ces cadres
peuvent faciliter le partage des infrastructures, et des modèles en accès ouvert peuvent
contribuer à rediriger les ressources vers les communautés mal desservies et, partant,
réduire les coûts pour les utilisateurs finaux. En Zambie, l’anticipation de l’entrée sur le
marché d’un quatrième opérateur a suffi pour amorcer une baisse des tarifs appliqués aux
données mobiles de plus de 70 % entre 2018 et 2019 (RIA, 2020b). Même si le secteur privé
peut fournir l’essentiel des investissements requis pour développer l’accès à Internet, des
interventions publiques actives peuvent être nécessaires pour garantir la couverture des
régions reculées dont l’attrait commercial est faible (voir encadré 3.2).
Encadré 3.2. Décision de la commission de la concurrence sud‑africaine
sur le caractère abordable des données
Le coût des données mobiles est un frein majeur à une utilisation d’Internet équitable
en Afrique du Sud. Seuls 36 % de la population nationale ont les moyens d’acheter
un gigaoctet de données. Selon une enquête, pour 47 % des Sud‑Africains, le coût des
données est l’un des principaux freins à l’utilisation d’Internet, le prix des appareils
étant l’argument suivant pour 36 % de la population (RIA, 2017). La répartition inégale
des bandes de fréquences et les installations basées sur les coûts ont pesé sur la
qualité des connexions Internet fournies par les petits opérateurs et ont fait obstacle
à la concurrence (Chetty et al., 2013). Elles ont également permis aux deux premiers
opérateurs, MTN et Vodacom, de concentrer 74 % des parts de marché en 2018, et de
maintenir des prix élevés malgré des positionnements tarifaires agressifs parmi leurs
concurrents (CCSA, 2019).
En 2020, suite aux menaces de poursuite de la commission de la concurrence sudafricaine, les deux premiers opérateurs ont abaissé leurs tarifs appliqués aux données.
En 2019, la commission avait exigé de ces acteurs qu’ils réduisent immédiatement de
30 à 50 % leurs tarifs appliqués au données et qu’ils proposent de façon forfaitaire un
volume quotidien gratuit de données aux abonnés de services prépayés. Ainsi, MTN et
Vodacom ont abaissé leurs prix de 149 à 99 rands sud‑africains (ZAR) par gigaoctet à
compter du 1er avril 2020. Malgré tout, ces tarifs étant seulement alignés sur les offres
des concurrents extérieurs Cell C et Telkom, ils ne permettront sans doute pas aux
ménages les plus pauvres d’accroître leur utilisation d’Internet (RIA, 2020c).
Source : Compilation des auteurs sur la base d’une analyse de la littérature existante.
144
DYNAMIQUES DU DÉVELOPPEMENT EN AFRIQUE 2021 : TRANSFORMATION DIGITALE ET QUALITÉ DE L’EMPLOI © CUA/OCDE 2021
3. Transformation digitale, emploi des jeunes et Agenda 2063 en Afrique australe
Certains pays ont lancé des plans nationaux pour développer le haut débit, assortis
d’objectifs spécifiques en termes de couverture. Par exemple, l’Afrique du Sud a l’ambition
de proposer un débit minimum de 5 mégaoctets par seconde (Mbps) à l’ensemble de sa
population et un débit de 100 Mbps à au moins la moitié de sa population d’ici fin 2020. Le
Botswana s’est fixé pour objectif 100 Mbps dans les zones urbaines et 50 Mbps dans les
zones rurales d’ici 2022.
En zone rurale, les utilisations innovantes des « espaces blancs » (TV white space)
peuvent améliorer les réseaux à haut débit à moindres coûts. Cette technologie réaffecte
les fréquences de diffusion non utilisées du réseau sans fil aux transmissions de données
et aux services Internet. Au Malawi, l’utilisation des espaces blancs a été mise à l’essai pour
le haut débit, avec des résultats concluants. Ces tests ont ensuite été reproduits en Afrique
du Sud, au Botswana, au Mozambique et en Namibie. Toutefois, l’adoption généralisée de
cette technologie se heurte encore à deux difficultés. Tout d’abord, en 2020, parmi les
pays d’Afrique australe, seuls l’Eswatini, le Lesotho, le Malawi et la Zambie ont achevé la
transition de la radiodiffusion analogique à la radiodiffusion numérique, visant à libérer
les radiofréquences auparavant utilisées par les chaînes de télévision. Les avancées des
autres pays sont plus modestes, en grande partie à cause des contraintes de financements
et de réseau (UIT, 2020b). Par ailleurs, l’utilisation des espaces blancs doit être appuyée par
des réglementations spécifiques. Dans le cas du Malawi, les réglementations nécessaires
n’ont pas été ratifiées assez rapidement pour que cette technologie puisse être déployée
à l’échelle nationale (Markowitz, 2019). Malgré certains retards, l’Afrique du Sud a quant
à elle publié ses réglementations techniques visant à mettre en place un réseau d’espaces
blancs et elle prévoit le déploiement commercial de cette technologie à compter de début
2021 (Moyo, 2020).
Les pouvoirs publics peuvent faire meilleur usage de leurs Fonds d’accès et de service
universels, ou USAF (Universal Service and Access Funds), pour orienter les investissements
vers les régions reculées. En 2018, à l’exception du Malawi, tous les pays d’Afrique australe
avaient instauré un USAF, programme spécial assorti de mécanismes de financement en
faveur d’un accès Internet et de services universels (Thakur et Potter, 2018). L’expérience
du Lesotho est un bon exemple pour la région, avec un fonds mis en place en 2009 puis
géré de façon concluante. Le programme investit intégralement ses allocations annuelles,
tout en maintenant ses coûts de fonctionnement à un niveau relativement faible, à savoir
en deçà de 20 % du chiffre d’affaires total. De 2009 à 2016, au moins 110 000 personnes,
réparties sur 320 villages situés dans des zones rurales reculées, ont bénéficié de ce
programme. Ce dernier a contribué au déploiement de 46 stations de base dans ces zones
et a assuré un accès à Internet à 40 écoles. En 2016, les priorités du programme ont été
redéfinies pour cibler l’accès au haut débit en mettant en place des services de Wi‑Fi
public (RIA, 2016).
Investir dans le capital humain est nécessaire afin de doter les travailleurs
des compétences adéquates pour l’avenir
Les pouvoirs publics peuvent s’appuyer sur des outils numériques afin de
proposer un enseignement au plus grand nombre et de meilleure qualité
Les pays doivent agir sans délai et évaluer les résultats des initiatives liées au
COVID‑19 les plus concluantes en matière d’éducation numérique. Ils doivent aussi
unir leurs forces pour porter ces initiatives aux niveaux national et régional. Avant la
pandémie, le recours aux TIC dans l’éducation augmentait modestement dans la région.
En 2017, le gouvernement du Botswana a lancé e‑Thuto, plateforme en ligne interactive
destinée aux enseignants, aux élèves et aux parents. E‑Thuto vise à faciliter l’accès aux
DYNAMIQUES DU DÉVELOPPEMENT EN AFRIQUE 2021 : TRANSFORMATION DIGITALE ET QUALITÉ DE L’EMPLOI © CUA/OCDE 2021
145
3. Transformation digitale, emploi des jeunes et Agenda 2063 en Afrique australe
ressources et supports éducatifs et aux informations administratives. Aujourd’hui,
la plateforme touche près de 35 000 élèves en Afrique australe, de l’école primaire au
lycée (Kuwonu, 2020). En Zambie, le ministère de l’Éducation nationale s’appuie sur
les technologies numériques pour évaluer l’apprentissage et suivre les performances
scolaires par le biais du projet Let’s Read. L’objectif de ce projet est d’aider 1.4 million
d’enfants, dans plus de 4 000 écoles, à lire avec fluidité, et en comprenant le texte, dans
l’une des sept langues locales officielles d’enseignement du pays (Banque mondiale,
2020d).
Il est crucial d’améliorer la qualité de l’enseignement fondamental pour préparer la
population active à la transformation digitale. Aujourd’hui, selon l’indice NRI (Networked
Readiness Index) du Forum économique mondial, sept des neufs pays d’Afrique australe
se situent au‑dessus de la moyenne du continent en matière de développement des
compétences numériques (FEM, 2016). Toutefois, dans la plupart des pays de la région,
le système éducatif n’est pas structuré de façon à encourager la transformation digitale
ou à gérer les difficultés qui en découlent. Le manque de savoirs fondamentaux (savoir
lire et écrire par exemple) et de compétences numériques de base prive les plus pauvres
des avantages de la transformation digitale. Au Lesotho, pour près de 60 % des personnes
interrogées, l’analphabétisme numérique est le premier facteur de non‑usage d’Internet
(RIA, 2016).
Une actualisation des programmes d’enseignement selon les besoins du marché est
essentielle afin de réduire l’inadéquation des compétences largement répandue dans la
région, notamment dans les pays membres de la SACU. Au Lesotho, par exemple, aucune
institution ne propose de formation axée sur la réparation des machines à coudre,
compétences fortement recherchées dans le secteur de l’habillement. De même, sur les
quelque 1 800 étudiants inscrits à l’université nationale du Lesotho, 40 seulement environ
se spécialisent dans des filières liées aux TIC malgré les taux de chômage inférieurs
pour les jeunes diplômés dans ces domaines par rapport à d’autres débouchés (Banque
mondiale, 2018). Les organismes professionnels, les chefs de file et les universitaires de
ce secteur doivent s’exprimer et intervenir pour faire inscrire la transformation digitale
dans les agendas politiques en Afrique australe. Les institutions officielles qui facilitent
ces passerelles, telles que le Joburg Centre for Software Engineering en Afrique du Sud,
peuvent jouer un rôle certain dans cette démarche (Markowitz, 2019). En outre, si les
étudiants bénéficient de conseils personnalisés pour leur carrière dès le début de leur
cursus, cela permettrait de réduire le décrochage scolaire, d’accroître leurs possibilités de
prolonger leurs études et d’améliorer les débouchés professionnels (OCDE, 2017a).
Les pouvoirs publics doivent élargir l’enseignement et la formation techniques
et professionnels (EFTP) pour favoriser les apprentissages tout au long de la vie
Le développement des programmes d’enseignement technique et de formation
professionnelle (EFTP) pourrait améliorer les capacités des travailleurs et faciliter leur
entrée sur le marché du travail (OCDE, 2017b). L’économie numérique requiert des
compétences diverses, de l’aptitude à utiliser un téléphone portable, Internet et les médias
sociaux, à la capacité d’analyser des données complexes, de développer des applications
et de gérer des réseaux. Le développement des compétences ne devrait pas être restreint
au cadre scolaire. L’ensemble de la population devrait pouvoir y accéder par le biais de
partenariats avec des lycées d’EFTP et communautaires. En Afrique du Sud, l’objectif des
pouvoirs publics est ambitieux puisqu’ils souhaitent développer le système de lycées
d’EFTP pour porter les effectifs à 2.5 millions d’élèves d’ici 2030, espérant ainsi diminuer
le nombre de jeunes (3.4 millions) qui ne bénéficient pas d’un emploi dans le secteur
formel et n’ont pas suivi d’études ou de formation (Field, Musset et Álvarez‑Galván, 2014).
Au Botswana, au Malawi, en Namibie et en Zambie, le projet quinquennal de l’UNESCO
146
DYNAMIQUES DU DÉVELOPPEMENT EN AFRIQUE 2021 : TRANSFORMATION DIGITALE ET QUALITÉ DE L’EMPLOI © CUA/OCDE 2021
3. Transformation digitale, emploi des jeunes et Agenda 2063 en Afrique australe
« Une meilleure éducation pour l’essor de l’Afrique » aide les pouvoirs locaux à améliorer
leurs systèmes d’EFTP en identifiant les secteurs pertinents (comme l’agro‑alimentaire et
la construction au Malawi) et les partenariats potentiels afin que les jeunes aient plus de
facilité à décrocher un emploi décent (UNESCO, s.d.).
Les initiatives publiques et privées aident à diffuser les compétences propres à
l’entrepreneuriat et au numérique. Les initiatives telles que celles présentées dans le
tableau 3.3 pourraient contribuer à relever les différents défis auxquels sont confrontés
les pays d’Afrique australe, dont le niveau élevé du chômage, l’ampleur du secteur
informel et l’inadéquation des compétences. Elles pourraient aussi permettre d’alléger la
pression qui pèse sur le système éducatif officiel. En 2018, le gouvernement du Zimbabwe
a annoncé l’affectation de 15 millions USD pour la construction de pôles d’innovation
dans six universités et pour la refonte infrastructurelle de l’enseignement secondaire et
supérieur (FurtherAfrica, 2019). En Afrique du Sud, l’initiative Inclusive Youth Employment
Pay for Performance Platform a fait naître des partenariats entre différents acteurs
– bailleurs, investisseurs, autorités locales et prestataires de services –, dans le but de
former 600 jeunes pour des postes dans les secteurs à forte croissance (la technologie par
exemple). Cette initiative prévoit un développement des partenariats de façon à couvrir
5 400 emplois (Boggild‑Jones et Gustafsson‑Wright, 2019).
Tableau 3.3. Exemples d’initiatives visant à développer les compétences
numériques des jeunes en Afrique australe
Nom
Année de
lancement
iKamva National e-Skills
Institute (iNeSI)
Description
Localisation
2012
Les formations de l’iNeSI couvrent l’ensemble des compétences du numérique,
des plus basiques aux expertises de pointe.
Afrique du
Sud
2015
Le programme prévoit 70 millions USD d’investissements pour le développement
des compétences numériques, infonuagiques et cognitives, qui font amplement
défaut sur le marché, afin d’accompagner la population active africaine du
XXIème siècle.
Botswana,
Afrique du
Sud
Digital Malawi Project
(DMP)
2017
Le DMP a été conçu autour de quatre volets assortis d’enveloppes budgétaires
distinctes : écosystème numérique (10 millions USD), connectivité numérique
(34 millions USD), plateforme et services numériques (24 millions USD) et
gestion de projet (5 millions USD).
Malawi
Africa Code Week de
SAP
2016
SAP propose une formation en ligne gratuite et des ateliers sur le codage aux
jeunes âgés de 8 à 24 ans. En 2019, 3.85 millions de jeunes ont bénéficié de ces
initiatives auxquelles 39 000 enseignants ont participé.
Botswana,
Zimbabwe
Digital Code Week de
mHub
2019
mHub a formé 178 enseignants au total, dans six districts du nord du Malawi, sur
les principes de base du codage qu’ils transmettront à leur tour à 805 élèves.
Malawi
2011
iSchool Zambia fournit aux écoles des outils numériques, un réseau
d’alimentation électrique fiable, des formations destinées aux enseignants et
des logiciels en appui aux programmes scolaires. Un partenariat entre iSchool,
l’Autorité des technologies de l'information et des communications de la Zambie
et Microsoft a permis de fournir ces services à 400 écoles.
Zambie
Programme
Digital-Nation Africa
d’IBM
iSchool Zambia
Source : Compilation des auteurs.
La région devrait développer une culture orientée sur un apprentissage tout au
long de la vie, afin de préparer la transformation digitale de l’Afrique et de s’adapter
aux besoins futurs en matière de compétences. Les pays d’Afrique australe doivent
procéder à une évaluation proactive des avancées technologiques futures et anticiper
les besoins en compétences qui en découlent. Dans les pays membres de la SACU, où
une majorité de jeunes atteignent des niveaux d’études supérieures, il est nécessaire
d’instaurer des dispositifs d’amélioration continue des capacités des travailleurs, par le
biais de programmes de reconversion et de perfectionnement. En effet, les emplois peu
qualifiés qui impliquent beaucoup de tâches répétitives sont les plus susceptibles d’être
DYNAMIQUES DU DÉVELOPPEMENT EN AFRIQUE 2021 : TRANSFORMATION DIGITALE ET QUALITÉ DE L’EMPLOI © CUA/OCDE 2021
147
3. Transformation digitale, emploi des jeunes et Agenda 2063 en Afrique australe
automatisés ou délocalisés. Les travailleurs ainsi privés de leur emploi se retrouveront
peut‑être en compétition avec d’autres travailleurs peu qualifiés pour des postes assortis
d’une rémunération faible voire, à la baisse (OCDE, 2020). En outre, la reconnaissance
des compétences acquises lors de précédentes expériences professionnelles (formelles
ou informelles) pourrait aider les individus à décrocher des opportunités d’emploi ou à
évoluer dans leur carrière ; ceci est particulièrement valable en Afrique australe où, par le
passé, beaucoup de travailleurs n’ont pas eu accès à un enseignement ou une formation
officiels (OCDE, 2019b ; OCDE, 2017a).
Les pays doivent rapidement mettre en œuvre des initiatives au niveau
régional et renforcer leur cohésion
Les pays doivent accélérer les initiatives en cours afin d’harmoniser les
réglementations visant à favoriser une économie numérique intégrée
En Afrique australe, les pays ont lancé de nombreuses initiatives régionales en faveur
d’une économie numérique intégrée et de la transformation digitale dans la région. Le
tableau 3.4 dresse une liste des principales initiatives dans le domaine du numérique par
pays au sein de la Communauté de développement d’Afrique australe (SADC). Figure entre
autre le plan Digital SADC 2017 qui fournit le cadre global du processus de transformation
digitale à l’échelle régionale, avec un accent particulier mis sur les infrastructures, la
cohérence du cadre réglementaire relatif aux TIC et le développement industriel. Autre
initiative d’envergure, le plan conçu par le Marché commun de l’Afrique orientale et
australe vise à développer une zone de libre‑échange numérique, ou DFTA (Digital Free
Trade Area). La DFTA consistera en une plateforme numérique destinée aux échanges
commerciaux exempts de taxes et de quotas, ouvrant un marché régional estimé à
17.2 milliards UDS (TrendsNAfrica, 2019).
Tableau 3.4. Exemples d’initiatives axées sur la transformation digitale lancées
par la Communauté de développement d’Afrique australe
Initiative
Période
Description
Digital SADC 2027
2012-27
Volet consacré aux TIC du Plan directeur 2012 de la SADC pour le
développement des infrastructures régionales, dont les objectifs englobent
les fréquences à haut débit harmonisées et universelles, les infrastructures
fédératrices en fibre optique, la répartition des bandes de fréquence,
l’harmonisation du cadre réglementaire relatif aux TIC, les centres
d’excellence
Migration analogique-numérique
2009 - aujourd’hui
Assistance technique destinée aux états membres pour les accompagner
dans leur migration analogique-numérique
Lois types relatives à l'harmonisation des politiques des TIC en
Afrique sub-saharienne (HIPSSA)
2008 - 13
Portées par l’Association des régulateurs des communications d'Afrique
australe (CRASA), elles visent à réduire les frais d’itinérance au sein de la
région
Déclaration relative aux
technologies de l'information et
de la communication
2001 - aujourd’hui
Politique relative aux TIC de la SADC, qui met l’accent sur les infrastructures
et la réglementation
Source : Tableau 1 de Markowitz (2019).
Une analyse de l’intégration régionale au sein de la SADC fait ressortir 29 stratégies,
plans, lois types, directives politiques et cadres différents en lien avec les réglementations
des TIC au niveau de la SADC depuis 2012 (SADC, 2019). Ces initiatives s’inscrivent en
réponse aux nouveaux défis réglementaires aux niveaux national et régional, concernant
entre autres la fiscalité, la protection des consommateurs et la sécurité numérique,
inhérents à la nature transfrontalière de l’économie numérique. Elles répondent aussi de
148
DYNAMIQUES DU DÉVELOPPEMENT EN AFRIQUE 2021 : TRANSFORMATION DIGITALE ET QUALITÉ DE L’EMPLOI © CUA/OCDE 2021
3. Transformation digitale, emploi des jeunes et Agenda 2063 en Afrique australe
façon pragmatique et opportune aux besoins réglementaires de l’économie numérique,
qui évoluent rapidement. Par exemple, si la Convention 2014 de Malabo couvrant
l’ensemble du continent en matière de sécurité numérique et de protection des données
n’est pas encore entrée en vigueur, les pays d’Afrique australe se sont déjà dotés d’une
loi type de la SADC pour faire face à ces problématiques nouvelles. Cette avancée fut
possible grâce à l’initiative conjointe de l’Union européenne et de l’Union internationale
des télécommunications relative à l’harmonisation des politiques des TIC en Afrique
sub‑saharienne (HIPSSA) (Greenleaf et Cottier, 2020)2.
Les pays doivent accélérer la mise en œuvre de ces initiatives, qui se sont souvent
heurtées à des difficultés de diverses natures. À titre d’exemple, les négociations visant
à abolir les frais d’itinérance, entamées en 2010, n’ont pas encore totalement abouti en
raison de la résistance des opérateurs privés. De même, bien que l’initiative HIPSSA ait
aidé les pays à adapter les lois types à leur contexte national propre, certaines demeurent
non appliquées au niveau national. La plupart des pays africains ont adopté des lois et
promulgué des réglementations relatives à la gestion de l’économie numérique, mais
ces textes reflètent pour l’essentiel les problématiques nationales, sans répondre aux
enjeux régionaux. L’évolution des priorités des états membres et la lente mise en œuvre
des initiatives d’intégration induisent parfois un chevauchement des nouvelles politiques
avec les mesures existantes qui ne sont pas encore entrées en vigueur (SADC, 2019 ;
Markowitz, 2019).
Sur le plan réglementaire, il est essentiel d’accorder de l’importance à la gouvernance
des données afin d’assurer la fluidité des flux d’informations transfrontaliers. L’Afrique
australe s’apparente à un réseau en étoile au sein duquel neuf pays sous‑connectés
coexistent avec un pays relativement hyper‑connecté, à savoir l’Afrique du Sud. À titre
d’exemple, cette dernière compte 21 centres de données quand l’Angola n’en a que trois et
le Zimbabwe un seul. En 2020, trois des plus grandes entreprises mondiales de données
− Microsoft, Amazon Web Services et Huawei − ont annoncé la création d’installations
de services infonuagiques en Afrique du Sud (Uwagbale, 2020). Ces investissements
ne visent pas seulement à servir les clients d’Afrique du Sud, mais aussi le reste du
continent. La fluidité du flux d’informations transfrontaliers entre les pays d’Afrique
australe est cruciale pour la compétitivité de l’ensemble de la région, permettant aux
consommateurs et aux producteurs de l’économie numérique d’accéder aux technologies
les plus récentes.
La stratégie d’industrialisation régionale doit intégrer la transformation digitale
des chaînes de valeur stratégiques
Il est fondamental de prendre en compte la transformation digitale de l’Afrique
afin d’améliorer les principales chaînes de valeur en Afrique australe. Le Plan d’action
pour la stratégie et la feuille de route d’industrialisation de la SADC font la part belle
au développement de chaînes de valeur régionales dans les secteurs agro‑alimentaire,
d’enrichissement des minerais, manufacturier et pharmaceutique (désignés comme
les « axes stratégiques de développement »). Accélérer la transformation digitale peut
contribuer à accroître la participation au marché et à moderniser ces chaînes de valeur.
À titre d’exemple, la transformation digitale à l’œuvre à l’échelle mondiale est susceptible
d’accélérer la servicification du secteur manufacturier et la régionalisation des chaînes de
valeur longues et complexes, comme l’industrie automobile (voir chapitre 1). De même,
les applications de la blockchain peuvent fondamentalement améliorer la production,
l’organisation et la distribution du secteur agro‑alimentaire en Afrique. Les pays devront
toutefois relever certains défis afin de concrétiser ce potentiel (voir encadré 2.1 au
chapitre 2).
DYNAMIQUES DU DÉVELOPPEMENT EN AFRIQUE 2021 : TRANSFORMATION DIGITALE ET QUALITÉ DE L’EMPLOI © CUA/OCDE 2021
149
3. Transformation digitale, emploi des jeunes et Agenda 2063 en Afrique australe
Pour utiliser la blockchain, les acteurs des chaînes de valeur doivent être dotés de
capacités numériques. Le projet pilote TRADO mis en place dans la filière du thé au Malawi
en est un bon exemple. L’objectif de l’initiative TRADO est de proposer aux producteurs
agricoles un financement bon marché pour leur fonds de roulement en échange de
données sur leur chaîne d’approvisionnement. Le flux de données sur les produits et la
participation des acteurs de la chaîne d’approvisionnement, obtenu grâce à la blockchain,
aident à améliorer les modèles de tarification des financements commerciaux et à réduire
les frais de financement. Le projet pilote, mené avec Unilever en 2018, a fait ressortir
un gain inférieur (hausse de 0.68 point de pourcentage) aux prévisions (hausse de 1 à
3 points). Ce résultat s’explique par l’incapacité des acheteurs de réaliser des transactions
numériques.
Les pays pourraient renforcer les liens entre les pôles d’innovation numérique et les
acteurs des secteurs stratégiques. La région est dotée de plusieurs pôles (voir tableau 3.5),
à l’image du programme Southern Africa Innovation Support (SAIS). Le programme SAIS
vise à faciliter la croissance des écosystèmes d’innovation en Afrique australe. Il consiste
en un partenariat entre le secrétariat de la SADC et les ministères en charge des sciences,
des technologies et de l’innovation en Afrique du Sud, au Botswana, en Namibie, en
Tanzanie et en Zambie. Connected Hubs, l’un des volets du programme SAIS, est consacré
au partage des bonnes pratiques concernant l’appui à l’innovation et au développement
d’une communauté des acteurs de l’innovation, organisée en réseau, couvrant les pays
de la SADC. Depuis la phase pilote lancée en 2018, Connected Hubs a permis la création
de liens entre 20 organisations de soutien aux entreprises réparties dans sept pays,
l’accompagnement de plus de 500 entrepreneurs dans les premières étapes de leurs
projets et la consolidation de 24 startups à impact émergentes (SAIS, s.d.).
Tableau 3.5. Sept exemples de pôles d’innovation en Afrique australe
Année de
création
Caractéristiques importantes
Localisation
Alphacode
2015
Alphacode identifie les entrepreneurs hors du commun spécialisés
dans les secteurs financiers de nouvelle génération, puis crée des
partenariats avec eux et les accompagne.
Johannesburg,
Afrique du Sud
Silicon Cape
Initiative
2009
La Silicon Cape Initiative est une entreprise sociale qui vise
à encourager l’entrepreneuriat dans les secteurs technologique
et informatique, dans la province du Cap Occidental.
Le Cap, Afrique du
Sud
BongoHive
2011
Premier pôle consacré à l’innovation et aux technologies de la
Zambie, BongoHive a accompagné plus de 1 300 startup autour
de quatre axes : développement des compétences, accélération
de la croissance, renforcement des réseaux et développement
des collaborations.
Lusaka, Zambie
mHub
2014
mHub est un pôle d’innovation et un incubateur, qui forme
et parraine des innovateurs et des entrepreneurs. Il a accompagné
plus de 4 000 jeunes.
Lilongwe, Malawi
Impact Hub Harare
2015
Impact Hub Harare est un incubateur d’entreprises sociales, un
laboratoire d’innovation et une communauté d’entreprises sociales
qui compte plus de 100 membres.
Harare, Zimbabwe
Kianda Hub
2015
Kianda Hub propose des espaces de travail partagés et organise
le concours annuel Seedstars Luanda. L’édition 2019 de ce
concours a attiré sept startup locales.
Luanda, Angola
2011
SAIS est une initiative régionale qui accompagne la croissance
des nouvelles entreprises par le renforcement des écosystèmes
d’innovation et la promotion des collaborations transfrontalières
entre les acteurs de l’innovation en Afrique australe. Sur la période
2017-21, le fonds SAIS 2 Innovation a distribué 1.3 million EUR
à 9 projets (sur 176 dossiers reçus).
Windhoek, Namibie
Nom
Southern Africa
Innovation Support
Programme (SAIS)
Source : Compilation des auteurs.
150
DYNAMIQUES DU DÉVELOPPEMENT EN AFRIQUE 2021 : TRANSFORMATION DIGITALE ET QUALITÉ DE L’EMPLOI © CUA/OCDE 2021
3. Transformation digitale, emploi des jeunes et Agenda 2063 en Afrique australe
La coopération entre les pouvoirs publics et le secteur privé est vitale. De nombreuses
plateformes et applications numériques fonctionnent par‑delà les frontières et dans divers
secteurs. À titre d’exemple, le secteur de la fintech s’est révélé profondément utile pour
la modernisation du secteur agro‑alimentaire (voir chapitre 2). Les autorités publiques
de plusieurs pays partagent la responsabilité réglementaire pour ce secteur, comme les
banques centrales, les ministères en charge des télécommunications et les autorités de la
concurrence. Toutefois, une analyse récente des politiques relatives à la transformation
digitale en Afrique du Sud, au Lesotho et au Malawi fait apparaître une collaboration
limitée entre les différents organismes d’État (Markowitz, 2019). Un fort leadership est
essentiel pour faire naître une vision commune à l’égard de la transformation digitale,
fédérant secteurs et industries et pouvoirs publics, et pour favoriser une collaboration
dynamique entre ces différents acteurs.
Notes
1. En Afrique australe, l’Angola et le Mozambique disposent également de points d’échange
internet (IXP) actifs.
2. L’Afrique du Sud, l’Angola, le Botswana, le Lesotho et le Malawi ont promulgué des lois relatives
à la confidentialité des données dès 2011. Le Zimbabwe a promulgué une loi similaire applicable
au secteur public en 2002. L’Eswatini et la Zambie ont présenté ou préparé des projets de loi
relative à la protection des données.
Références
Alper, C. et M. Miktus (2019), « Bridging the mobile digital divide in sub‑Saharan Africa: Costing under
demographic change and urbanization », International Monetary Fund Working Papers, n° 19/249,
www.imf.org /en/Publications/WP/Issues/2019/11/15/Bridging-the-Mobile-Digital-Dividein-Sub-Saharan-Africa-Costing-under-Demographic-Change-48793.
Asif, S. (2019), « Upcoming commercialization of 5G in South Africa », MTN Consulting,
www.mtnconsulting.biz/upcoming-commercialization-of-5g-in-south-africa/
(consulté
le
25 août 2020).
Aslam, Z., H. Bhorat et J. Page (2020), « Exploring new sources of large‑scale job creation: The
potential role of Industries without smokestacks », Brookings Institutions, Washington, DC,
w w w.brookings.edu /research /explor ing-new-sources-of-large-scale-job-creation-thepotential-role-of-industries-without-smokestacks/.
Banque mondiale (2020a), Enterprise Surveys (base de données), www.enterprisesurveys.org/en/
data (consulté le 28 juin 2020).
Banque mondiale (2020b), World Development Report 2020: Trading for Development in the Age of Global
Value Chains, Banque mondiale, Washington, DC.
Banque mondiale (2020c), PovCalNet (base de données), http://iresearch.worldbank.org/PovcalNet/
home.aspx (consulté le 28 juin 2020).
Banque mondiale (2020d), Accelerating Digital Transformation in Zambia: Digital Economy Diagnostic
Report, Banque mondiale, Washington, DC, https://openknowledge.worldbank.org/handle/
10986/33806.
Banque mondiale (2019), Digital Economy for Mozambique Diagnostic Report, Banque mondiale,
Washington, DC, http://pubdocs.worldbank.org/en/833211594395622030/Mozambique-DECA.
pdf.
Banque mondiale (2018), Unlocking the Potential of Lesotho’s Private Sector: A Focus on Apparel, Horticulture,
and ICT, Groupe de la Banque mondiale, Washington, DC, http://documents.worldbank.org/
curated/en/832751537465818570/Unlocking-the-potential-of-Lesotho-s-private-sector-a-focuson-apparel-horticulture-and-ICT.
Banque mondiale (2017), « Première phase du programme numérique du Malawi : fondations
numériques », Banque mondiale, Washington, DC, https://projects.banquemondiale.org/fr/
projects-operations/project-detail/P160533.
Baxter, D. (2020), « Africa must embrace digital infrastructure governance. PPPs can help »,
Banque mondiale, https://blogs.worldbank.org/ppps/africa-must-embrace-digital-infrastructuregovernance-ppps-can-help.
DYNAMIQUES DU DÉVELOPPEMENT EN AFRIQUE 2021 : TRANSFORMATION DIGITALE ET QUALITÉ DE L’EMPLOI © CUA/OCDE 2021
151
3. Transformation digitale, emploi des jeunes et Agenda 2063 en Afrique australe
Boggild‑Jones, I. et E. Gustafsson‑Wright (2019), « First social impact bond in South Africa shows
promise for addressing youth unemployment », Brookings Institution, Washington, DC,
www.brookings.edu/blog/education‑plus‑development/2019/07/12/first‑social‑impact‑bond‑
in‑south‑africa‑shows‑promise‑for‑addressing‑youth‑unemployment/.
BPESA (2019), GBS Sector Job Creation Report: Q4 2019, Business Process Enabling South Africa, Sandton,
Afrique du Sud, www.bpesa.org.za/component/edocman/?task=document.viewDoc&id=213.
Browdie, B. (2020), « South Africans under lockdown have to deal with slow internet after another
undersea cable break », Quartz Africa, https://qz.com/africa/1828436/lockdown-south-africainternet-slows-as-submarine-cable-snaps/ (consulté le 25 août 2020).
CCSA (2019), Data Services Market Inquiry: Final Report, Competition Commission South Africa,
www.compcom.co.za/wp‑content/uploads/2019/12/DSMI‑Non‑Confidential‑Report‑002.pdf.
Chetty, M. et al. (2013), « Investigating Broadband Performance in South Africa: 2013 », Towards
Evidence‑based ICT Policy and Regulation, vol. 2, www.researchictafrica.net/docs/RIA_policy_
paper_measuring_broadband_performance_South_Africa.pdf.
Chigbu, B. et F. Nekhwevha (2020), « The extent of job automation in the automobile sector in
South Africa », Economic and Industrial Democracy, SAGE Journals, https://doi.org/10.1177/
0143831X20940779.
CNUCED (2020), UNCTADSTAT (base de données), Conférence des Nations Unies sur le commerce et
le développement, https://unctadstat.unctad.org/wds/ReportFolders/reportFolders.aspx (consulté
le 1er mai 2020).
Crunchbase (2020), Crunchbase Pro (base de données), www.crunchbase.com (consulté le 28 juin
2020).
CUA/OCDE (2018), Dynamiques du développement en Afrique 2018 : Croissance, emploi et inégalités,
Éditions OCDE, Paris/AUC, Addis-Abeba, https://doi.org/10.1787/9789264302525‑fr.
Demirgüç‑Kunt, A. et al. (2018), The Global Findex Database 2017: Measuring Financial Inclusion and the
Fintech Revolution, Banque mondiale, Washington, DC, http://microdata.worldbank.org/index.
php/catalog/global‑findex (consulté le 1er février 2020).
Fairwork Foundation (2020), Gig Workers, Platforms and Government during Covid‑19 in South Africa,
https://fair.work/wp‑content/uploads/sites/97/2020/05/Covid19‑SA‑Report‑Final.pdf.
Fanta, A. et al. (2016), « The role of mobile money in financial inclusion in the SADC region: Evidence
using Finscope surveys », Policy research paper, n° 3/2016, FinMark Trust, Midrand, Afrique du Sud,
www.finmark.org.za/wp-content/uploads/2016/12/mobile-money-and-financial-inclusion-insadc.pdf.
FAO (2018), The International Symposium on Agricultural Innovation for Family Farmers: 20 Success Stories of
Agricultural Innovation from the Innovation Fair, Organisation des Nations Unies pour l’alimentation
et l’agriculture, www.fao.org/3/CA2588EN/ca2588en.pdf.
FEM (2016), The Global Information Technology Report 2016: Innovating in the Digital Economy, Forum
économique mondial, Genève, www3.weforum.org/docs/GITR2016/WEF_GITR_Full_Report.pdf.
Field, S., P. Musset et J. Álvarez‑Galván (2014), A Skills beyond School Review of South Africa, Examens
de l’OCDE sur l’éducation et la formation professionnelles, Éditions OCDE, Paris, https://doi.
org/10.1787/9789264223776‑en.
FurtherAfrica (2019), Report: Digital Opportunities Southern Africa’s Offering in 2019,
https://furtherafrica.com/2019/06/02/report-digital-opportunities-southern-africas-offeringin-2019/ (consulté le 25 août 2020).
Gallup (2018), Gallup World Poll (base de données), www.gallup.com/analytics/232838/world‑poll.
aspx (consulté le 1er février 2020).
Genesis Analytics (2019a), Evaluation of Phase 1 Implementation of Interventions in the National Health
Insurance (NHI) Pilot Districts in South Africa, Johannesbourg, Afrique du Sud, www.hst.org.za/
publications/NonHST%20Publications/nhi_evaluation_report_final_14%2007%202019.pdf.
Genesis Analytics (2019b), South Africa in the Digital Age, www.genesis‑analytics.com/sada.
Greenleaf, G. et B. Cottier (2020), Comparing African Data Privacy Laws: International, African and Regional
Commitments, University of New South Wales Law Research Series, http://dx.doi.org/10.2139/
ssrn.3582478.
GSMA (2020a), GSMA Intelligence (base de données), Global System for Mobile Communications
Association, www.gsmaintelligence.com (consulté le 28 juin 2020).
GSMA (2020b), « 618 active tech hubs: The backbone of Africa’s tech ecosystem », www.gsma.com/
mobilefordevelopment/blog/618‑active‑tech‑hubs‑the‑backbone‑of‑africas‑tech‑ecosystem/
(consulté le 28 juin 2020).
152
DYNAMIQUES DU DÉVELOPPEMENT EN AFRIQUE 2021 : TRANSFORMATION DIGITALE ET QUALITÉ DE L’EMPLOI © CUA/OCDE 2021
3. Transformation digitale, emploi des jeunes et Agenda 2063 en Afrique australe
GSMA (2019), 5G in Sub‑Saharan Africa: Laying the Foundations, https://data.gsmaintelligence.com/
api‑web/v2/research‑file‑download?id=45121572&file=2796‑160719‑5G‑Africa.pdf.
ICASA (2020), State of the ICT Sector Report: 2020, Independent Communications Authority of South
Africa, Centurion, Afrique du Sud, www.icasa.org.za/legislation-and-regulations/state-of-theict-sector-in-south-africa-2020-report.
IFC (2019), Creating Markets in Angola: Opportunities for Development through the Private Sector,
Société financière internationale, Groupe de la Banque mondiale, Washington, DC,
http://documents1.worldbank.org/curated/en/606291556800753914/pdf/Creating-Markets-inAngola-Opportunities-for-Development-Through-the-Private-Sector.pdf.
Klonner, S. et P. Nolen (2010), « Cell phones and rural labor markets: Evidence from South Africa »,
Proceedings of the German Development Economics Conference, Hannover 2010, n° 56, www.econstor.
eu/handle/10419/39968.
Kuwonu, F. (2020), « L›initiative d›apprentissage en ligne du Botswana remporte le prestigieux
Prix du service public des Nations Unies », AfriqueRenouveau, www.un.org/africarenew„al/fr/
magazine/juin-2020/coronavirus/linitiative-dapprentissage-en-ligne-du-botswana-remportele-prestigieux-prix-du (consulté le 25 août 2020).
Lancaster, H. (2020), South Africa: Telecoms, Mobile and Broadband: Statistics and Analyses,
17ème édition, Paul Budde Communications Pvt. Ltd., Australie, www.budde.com.au/Research/
South‑Africa‑Telecoms‑Mobile‑and‑Broadband‑Statistics‑and‑Analyses.
Markowitz, C. (2019), « Harnessing the 4IR in SADC: Roles for Policymakers », Occasional Paper, n° 303,
South African Institute of International Affairs, Afrique du Sud, https://media.africaportal.org/
documents/Occasional‑Paper‑303‑markowitz.pdf.
McKinsey & Company (2019), The Future of Work in South Africa: Digitisation, Productivity and Job
Creation, Sandton, Afrique du Sud, www.mckinsey.com/~/media/mckinsey/featured%20
insights/middle%20east%20and%20africa/the%20future%20of%20work%20in%20south%20
africa%20digitisation%20productivity%20and%20job%20creation/the-future-of-work-in-southafrica.pdf.
Moyo, A. (2020), « ICASA, Black IT Forum trade blows over TV white spaces », ITWeb, www.itweb.
co.za/content/Kjlyr7w1mB5qk6am (consulté le 25 août 2020).
Nhongo, K. (2018), « SADC ministers to review regional programme on ICT development », Southern
Africa Research and Documentation Centre, Harare, Zimbabwe, www.sardc.net/en/southernafrican-news-features/sadc-ministers-to-review-regional-programme-on-ict-development/.
OCDE (2020), « Technology and the future of work in emerging economies: What is different »,
Documents de travail de l’OCDE sur les affaires sociales, l’emploi et les migrations, n° 236, Éditions
OCDE, Paris, https://doi.org/10.1787/55354f8f‑en.
OCDE (2019a), « The road to 5G networks: Experience to date and future developments », Documents
de travail de l’OCDE sur l’économie numérique, n° 284, Éditions OCDE, Paris, https://doi.
org/10.1787/2f880843‑en.
OCDE (2019b), Community Education and Training in South Africa, Getting Skills Right, Éditions OCDE,
Paris, https://doi.org/10.1787/9789264312302‑en.
OCDE (2017a), Getting Skills Right: South Africa, Getting Skills Right, Éditions OCDE, Paris, https://doi.
org/10.1787/9789264278745‑en.
OCDE (2017b), Getting Skills Right: Good Practice in Adapting to Changing Skill Needs: A Perspective on
France, Italy, Spain, South Africa and the United Kingdom, Getting Skills Right, Éditions OCDE,
Paris, https://doi.org/10.1787/9789264277892‑en.
OIT (2020), ILOSTAT (base de données), Organisation internationale du Travail, Genève,
https://ilostat.ilo.org/fr/.
RIA (2020a), Mobile Pricing (base de données), Research ICT Africa, Le Cap, Afrique du Sud,
https://researchictafrica.net/ramp_indices_portal/ (consulté le 28 juin 2020).
RIA (2020b), « Uzi’s failed attempt to enter Zambian market leads to more than 70% fall in data
prices », Policy Brief, n° 2, Research ICT Africa, Le Cap, Afrique du Sud, https://researchictafrica.
net/wp/wp‑content/uploads/2019/11/Zambia_SNT_RAMP_policy_brief_2‑2019.pdf.
RIA (2020c), « Despite reduction in mobile data tariffs, data still expensive in South Africa »,
Policy Brief, n° 2, Research ICT Africa, Le Cap, Afrique du Sud, https://researchictafrica.net/wp/
wp‑content/uploads/2019/11/Zambia_SNT_RAMP_policy_brief_2‑2019.pdf.
RIA (2018a), After Access 2018: A Demand‑side View of Mobile Internet from 10 African Countries,
Policy Paper Series n° 5 After Access Paper n° 7, Research ICT Africa, Le Cap, Afrique du Sud,
https://researchictafrica.net/wp/wp-content/uploads/2019/05/2019_After-Access_AfricaComparative-report.pdf.
DYNAMIQUES DU DÉVELOPPEMENT EN AFRIQUE 2021 : TRANSFORMATION DIGITALE ET QUALITÉ DE L’EMPLOI © CUA/OCDE 2021
153
3. Transformation digitale, emploi des jeunes et Agenda 2063 en Afrique australe
RIA (2018b), « The State of ICT in Mozambique 2018 », RIA Policy Paper, n° 6, vol. 5, After Access,
Research ICT Africa, Le Cap, Afrique du Sud, https://researchictafrica.net/2019_after‑access_
the‑state‑of‑ict‑in‑mozambique/.
RIA (2017), « Low Internet penetration despite 90% 3G Coverage in Lesotho », Policy Brief, n° 2,
Research ICT Africa, Le Cap, Afrique du Sud, https://researchictafrica.net/wp/wp‑content/
uploads/2018/01/2017_Policy_Brief_5_Lesotho‑.pdf.
RIA (2016), The State of ICT in Lesotho, Research ICT Africa, Le Cap, Afrique du Sud,
https://researchictafrica.net /wp/wp-content /uploads/2018/01/2017_The-State-of-ICT-inLesotho_RIA_LCA.pdf.
SADC (2019), Status of Integration in the Southern African Development Community, Secrétariat de la
Communauté de développement de l’Afrique australe, Gaborone, Botswana, www.sadc.int/
files/9915/9154/2991/Status_of_Integration_in_the_SADC_Region_Report.pdf.
SAIS (s.d.), « SAIS programme and networking », South African Innovation Support,
www.saisprogramme.org/networking (consulté le 25 août 2020).
SMART (2011), « Western Cape Education Department, South Africa: Khanya Technology in
Education Project », http://downloads01.smarttech.com/media/sitecore/en/pdf/research_library/
implementation_profiles/110104_southafrican_moe_profile.pdf (consulté le 25 août 2020).
South African Revenue Service (2018), SARS Annual Report 2018/19, https://static.pmg.org.za/SARS_
Annual_Report_201819_WEB.pdf.
Telecompaper (2018), « South Korean operators to invest KRW 4 trillion in 5G networks in H1 »,
w w w.telecompaper.com /news/south-korean-operators-to-invest-kr w-4-tr illion-in-5gnetworks-in-h1--1329465 (consulté le 25 août 2020).
Thakur, D. et L. Potter (2018), Universal Service and Access Funds: An Untapped Resource to Close the
Gender Digital Divide, World Wide Web foundation, Washington, DC, https://webfoundation.org/
docs/2018/03/Using‑USAFs‑to‑Close‑the‑Gender‑Digital‑Divide‑in‑Africa.pdf.
Trendsnafrica (2019), « COMESA to establish Digital Free Trade Area (DFTA) », http://trendsnafrica.
com/2019/06/13/comesa‑to‑establish‑digital‑free‑trade‑area‑dfta/ (consulté le 25 août 2020).
UIT (2020a), World Telecommunication/ICT Indicators Database, Union internationale des
télécommunications, Genève, www.itu.int/en/ITU‑D/Statistics/Pages/publications/wtid.aspx
(consulté le 1er février 2020).
UIT (2020b), « Status of the transition to Digital Terrestrial Television », Union internationale
des télécommunications, Genève, www.itu.int/en/ITU‑D/Spectrum‑Broadcasting/DSO/Pages/
default.aspx (consulté le 25 août 2020).
UNESCO (2020), « National learning platforms and tools », Organisation des Nations Unies pour
l’éducation, la science et la culture, Paris, https://en.unesco.org/covid19/educationresponse/
nationalresponses.
UNESCO (s.d.), « Projet BEAR : transformer les compétences en Afrique subsaharienne », Organisation
des Nations Unies pour l’éducation, la science et la culture, Paris, https://fr.unesco.org/news/
projet‑bear‑transformer‑compétences‑afrique‑subsaharienne (consulté le 25 août 2020).
Uwagbale, E. (2020), « Why Amazon is expanding web services in Africa but still has no e‑commerce
here », Quartz Africa, https://qz.com/africa/1849378/amazon-expanding-web-services-in-africabut-no-e-commerce/.
Wittgenstein Centre for Demography and Global Human Capital (2018), Wittgenstein Centre Data
Explorer Version 2.0 (Beta) (base de données), www.wittgensteincentre.org/dataexplorer (consulté
le 1er mars 2020).
Zizzamia, R. et al. (2020), « The labor market and poverty impacts of COVID‑19 in South Africa »,
CSAE Working Paper Series 2020‑14, Centre for the Study of African Economies, University of
Oxford, https://ideas.repec.org/p/csa/wpaper/2020‑14.html.
154
DYNAMIQUES DU DÉVELOPPEMENT EN AFRIQUE 2021 : TRANSFORMATION DIGITALE ET QUALITÉ DE L’EMPLOI © CUA/OCDE 2021
Chapitre 4
Transformation digitale,
emploi des jeunes
et Agenda 2063
en Afrique centrale
Ce chapitre analyse la contribution réelle et potentielle
de l’économie digitale à l’accélération de la création
d’emplois dans les pays d’Afrique centrale : Burundi,
Cameroun, Congo, Gabon, Guinée équatoriale, République
centrafricaine (RCA), République démocratique du
Congo (RDC), São Tomé‑et‑Príncipe et Tchad. Malgré
l’essor de l’utilisation des services digitaux en 2020 en
raison du Coronavirus (COVID‑19), l’Afrique centrale
peine à accroître le taux de pénétration d’Internet au
sein de la population, en général, et des entreprises
publiques et privées, en particulier, pour une
meilleure création d’emplois. Le chapitre s’ouvre sur
les opportunités qu’offre la digitalisation en termes
de réduction du chômage, tout en précisant les
contraintes liées au faible niveau d’infrastructures de
communication. Il met ensuite en évidence le potentiel
inexploité du développement du digital, et identifie les
secteurs dans lesquels ce dernier pourrait rapidement
favoriser l’expansion de l’entrepreneuriat, notamment
par la création de startups. La conclusion formalise
les priorités pour une meilleure contribution de la
digitalisation à la création d’emplois.
EN BREF
4. Transformation digitale, emploi des jeunes et Agenda 2063 en Afrique centrale
158
Les économies d’Afrique centrale connaissent
un lent progrès en matière de création d’emplois
par le digital, en raison de fortes contraintes
structurelles : moins de 48 personnes sur 100 ont
accès à l’électricité, tandis que le taux d’abonnement
au téléphone mobile (66.9 %) reste inférieur de
10 points à la moyenne africaine. Seules 9 personnes
sur 100 utilisent un ordinateur en Afrique centrale,
région dont le tiers (34.2 %) du territoire est couvert
par la 4G. Le coût élevé des abonnements explique
le faible taux de pénétration d’Internet, à 26 %
contre 35 % en moyenne en Afrique, ainsi que le peu
d’emplois créés par le digital.
Avec un secteur agricole qui emploie 70.3 % de la
population active et ne génère que de faibles revenus,
la structure des économies, surtout exportatrices
de minerais, ne favorise pas le développement
de la digitalisation. Et ce, même si le potentiel est
réel : la jeunesse de la population, l’augmentation
progressive de son niveau d’éducation et la stabilité
des cadres règlementaires au niveau national
rendent en effet possible la création de startups
dynamiques.
Pour remédier à cette situation, quatre axes
politiques sont à explorer : i) développer les
infrastructures de communication pour en faciliter
l’accès ; ii) renforcer les systèmes d’éducation
pour doter la main‑d’œuvre des compétences
adéquates ; iii) tirer parti des technologies digitales
pour promouvoir l’entrepreneuriat et favoriser
la transformation digitale des chaînes de valeur
régionales ; et iv) appliquer les décisions prises
aux niveaux continental, régional et national en
faveur de la diversification des économies. Ces
décisions concernent notamment la mise en place
d’une fiscalité spécifique à l’économie digitale,
la mutualisation entre les pays du potentiel
infrastructurel et l’accroissement des partenariats
publics‑privés (PPP).
DYNAMIQUES DU DÉVELOPPEMENT EN AFRIQUE 2021 : TRANSFORMATION DIGITALE ET QUALITÉ DE L’EMPLOI © CUA/OCDE 2021
4. Transformation digitale, emploi des jeunes et Agenda 2063 en Afrique centrale
Afrique centrale
Emploi des jeunes
Le nombre de jeunes
avec une éducation supérieure a doublé
Le chômage et l'emploi informel
restent prédominants
% des jeunes travailleurs
au chômage ou dans
le secteur informel
Sur le total des
travailleurs
18 %
45 %
81 %
dans le
secteur
informel
9%
Cherche
Emploi
2000
25 %
Mais
d'entre eux
sont au
chômage
2020
Infrastructures de communication
Le nombre d'abonnements à la
téléphonie mobile a augmenté,
mais est en dessous de la
moyenne africaine
Afrique
centrale
46 %
2010
Afrique
67 %
2010
Les frais de communication
mobile représentent 22 %
en moyenne du revenu
mensuel
77 %
44 %
2018
Seulement 5 %
2018
des villes intermédiaires
sont connectées au
réseau de fibre optique
(le taux le plus
faible en Afrique)
22 %
Économie digitale
… mais le potentiel des
entrepreneurs dans le
digital reste largement
sous-exploité
Les jeunes de moins de 30 ans
représentent 65 % de la
population …
}
Les paiements mobile
ont été multipliés
par 9 depuis 2010 ...
1.8 milliard USD
2010
2019
Seules
startups
ont levé plus de
100 000 USD sur la
période 2011-20
}
9
200 millions USD
... mais seulement 33 %
ont accès à Internet
Coordonner l’investissement régional dans les infrastructures digitales
pour étendre leurs couverture et accessibilité
Prochaines
étapes pour
les décideurs
politiques ?
Encourager l’entrepreneuriat dans le digital en améliorant le cadre
règlementaire
Encourager la transformation digitale au niveau des chaînes de valeur
régionales
Promouvoir les partenariats public-privé pour faciliter la transition
de l’école vers l'emploi dans le secteur du digital
DYNAMIQUES DU DÉVELOPPEMENT EN AFRIQUE 2021 : TRANSFORMATION DIGITALE ET QUALITÉ DE L’EMPLOI © CUA/OCDE 2021
159
4. Transformation digitale, emploi des jeunes et Agenda 2063 en Afrique centrale
Profil régional de l’Afrique centrale
Tableau 4.1. Indicateurs ciblés de la transformation digitale en Afrique centrale
Secteur
digital
Infrastructures
de communication
Secteur des
télécommunication
Economie
digitale
Économie
digitalisée
Afrique centrale
(5 ans avant)
Afrique centrale
(année la plus
récente)
Source
Année
la plus
récente
Pourcentage de la population
possédant un téléphone portable
4.6
23.2
UIT
2018
Pourcentage de la population
bénéficiant d’une couverture 4G
19.2
55.4
GSMA
2020
Bandes passantes internationales
pour la connexion à Internet
par utilisateurs (kilobits/seconde)
4 536.6
10 902
UIT
2017
Total des investissements (en
pourcentage du chiffre d’affaires total)
18.4
18.3
GSMA
2018-20
Bénéfice avant intérêts, impôts,
dépréciation et amortissement (en
pourcentage du chiffre d’affaires total)
28.9
n.d.
| 50,478
|
30/halshs.archives-ouvertes.fr-tel-01252049-document.txt_9
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 8,859
| 13,270
|
Plusieurs remarques doivent donc être faites. Si la visite du musée est dans certains milieux sociaux un moyen de maintenir, de reproduire et de développer des capitaux culturels, cela ne signifie pas pour autant qu'elle joue ce rôle pour chaque visiteur. D'autre part, il convient de penser la visite muséale comme une occasion émergente au sein même d'une institution somme toute très codifiée, spécialisée et ainsi relativement fermée. Une telle approche interdit de penser les visiteurs des musées comme un groupe soumis au bon vouloir de l'institution. Nous nous éloignons donc des interprétations qui sont proposées dans L'amour de l'art par exemple, mais aussi dans la littérature scientifique qui s'est développée à sa suite. Ainsi on admettra que le visiteur du musée exerce 245 toujours une intelligence dans sa visite. Il ou elle n'est pas forcément en train de se soumettre à des codes dominants et ou de mettre en pratique une stratégie de la distinction. Il faut alors prendre un certain recul avec une sociologie des publics que l'on pourrait qualifier de sémiotique, dans le sens où elle n'admet qu'un seul type de codification en jeu dans l'expérience culturelle et artistique. C'est dans une analogie avec les sciences de la communication, avec la relation émetteur/code/récepteur, que L'amour de l'art développe son argumentation : « Autrement dit, la fréquentation des musées obéit à une logique que connaît la théorie de la communication, puisque, à la façon d'un émetteur radio ou de télévision, le musée propose une information qui peut s'adresser à tout sujet possible sans qu'il en coûte davantage et qui ne prend sens et valeur que pour un sujet capable de la déchiffrer et de la goûter. () On peut supposer la fréquentation assidue implique la maîtrise du code du message proposé et l'adhésion à un système de valeur qui fonde l'octroi de valeur aux significations déchiffrées () 1» Les préoccupations pour la médiation culturelle, qu'il ne s'agit absolument pas ici de rejeter ou dévaloriser, s'inscrivent dans cette lignée. Elles s'appliquent à trouver les moyens les plus efficaces pour mettre le code légitime à disposition du plus grand nombre. Les objets exposés dans les musées ont une résonance particulière pour celui qui dispose des codes qui permettent de les comprendre. La visite du musée, le fait même d'y entrer, est facilitée pour le détenteur de ces codes. Mais il est étonnant que la sociologie des publics ne s'intéresse pas davantage aux publics effectivement présents même s'ils s'en trouvent à la marge. En l'occurrence c'est souvent avec dénigrement qu'ils sont évoqués. La visite muséale étant comparée à un rituel religieux – ce qui par ailleurs est une analogie attirante dans la perspective d'une religion sécularisée de la République – P. Bourdieu et A. Darbel parlent d'une « église où quelques élus viennent nourrir 1 Pierre Bourdieu et Alain Darbel (1969), Opus cité, p. 113 246 une foi de virtuose tandis que les conformistes ou faux-dévots viennent y bâcler un rituel de classe. 1» Si les Salons du XIXème et du début du XXème siècle étaient des lieux réservés à la bourgeoisie, il en va autrement pour le musée dès sa création, et d'autant plus dans les musées nationaux en ce début de XXIème siècle, et la fréquentation massive qui caractérise certains d'entre eux. Parler alors de « rituel de classe » et de « faux-dévots » prend le risque de la réduction. Cette mise à distance critique énoncée, nous avons pleinement conscience que l'ouvrage date de 1969 et qu'il ne s'applique a priori pas aux évolutions contemporaines du musée. Ce qui pose problème est qu'il reste pourtant une référence incontournable. Il est évident que de nombreux éléments offrent une latitude pour établir une analogie entre la pratique culturelle et la pratique cultuelle. Si le musée est républicain, alors il est bien un des lieux de culte de la religion séculaire de la République. Rappelons que pour André Malraux la relation à l'oeuvre relève presque du mystique et qu'il compare ses Maisons de la Culture à des cathédrales. Toutefois, la reprise sociologique de cette analogie est troublante pour plusieurs raisons. D'une part, elle néglige l'origine de la dimension mythique de l'institution et ce qu'elle induit sur ses prolongements. On l'a vu, les Lumières remplacent les mythes par la Raison, qui fonctionne alors elle-même sur le principe du mythe. En effet, l'esthétique kantienne le montre, si la Raison implique une rationalité elle se fonde sur la base irrationnelle d'une chose en soi inexplicable. Si le musée a alors une dimension mythique, c'est dans les termes d'une réification qu'elle devrait être traitée. D'autre part, le fait que cette analogie soit également reprise par la critique élitiste doit nous interroger2. L'Etat culturel de Marc Fumaroli porte en effet comme sous-titre Essai sur une religion moderne3. La prise de position se résume pourtant à un retour aux fondamentaux de la « vraie culture » dans les politiques culturelles, et notamment dans les musées nationaux. Pour l'académicien, c'est alors la diversité culturelle qui relève du phénomène religieux. Enfin, c'est 1 Ibid. 2 Peut-être plus surprenant encore, c'est toujours cette même idée qui semble animer certains intellectuels progressistes, voir par exemple : Alain Brossat, Le grand dégoût culturel. 2008, Paris, Seuil, 189 p. 3 Marc Fumaroli (1999), Opus cité. 247 négliger la « ation de la valeur traditionnelle de l'oeuvre d'art » que décrit W. Benjamin dans la perte de l'aura du bien culturel dans sa réception contemporaine 1. Ainsi, le « faux-dévot » pourrait plutôt être perçu comme un joyeux païen qui participe à la transgression des frontières entre les formes légitimes et illégitimes de la culture. Un visiteur païen qui s'engagerait dans un « mouvement de ré-appropriation de tout ce que le mythologique-religieux contient et condense d'aspirations inassouvies, d'intuitions non explicitées sur des rapports non contraignants à l'existence, de refus de l'oppression et de la domination à l'encontre du théologique-théocratique. 2» S'il est évident que le musée est une institution bourgeoise de par son histoire, son élaboration conceptuelle, son fond d'expôts – les objets exposés – et la répartition sociale de ses visiteurs, il n'est pas pour autant un espace habité exclusivement par ceux qui en maîtrisent les codes communicationnels. C'est cette ouverture sur l'ensemble du monde social qui lui fournit une dimension tendue, celle qui justement nous intéresse. L'ouverture publique du musée, même si la diversité sociale de son public ne s'y exprimerait qu'à la marge, est une occasion démocratique. C'est en ce sens que l'on peut parler de l'anonymat du public et de la possibilité de la présence du n'importe-qui dans le musée national. Ce que l'on retrouve dans cette formulation, c'est la manière dont J. Rancière évoque la démocratie, comme pouvoir du n'importe-qui ou part des sans-parts. Cette approche du politique, le philosophe l'étend aux questions culturelles : « Le pouvoir commun aux spectateurs ne tient pas à leur qualité de membres d'un corps collectif ou à quelque forme spécifique d'interactivité. C'est le pouvoir qu'a chacun et chacune de traduire à sa manière ce qu'il ou elle perçoit, de le lier à l'aventure intellectuelle singulière qui les rend semblables à tout autre pour autant que cette aventure ne ressemble à aucune autre. Ce pouvoir commun de l'égalité des intelligences lie des individus, leur fait échanger leurs aventures intellectuelles, pour autant qu'il les tient séparés les uns des 1 Walter Benjamin (2003), Opus cité. 2 Jean-Marie Vincent (1987), Opus cité. 248 autres, également capables d'utiliser le pouvoir de tous pour tracer leur chemin propre. 1» L'auteur attire ici 'attention sur la similitude construite par la différence qui renvoie au processus ouvert de la réification et la lutte qu'il implique. On peut aisément rattacher son propos aux visiteurs de musée. En effet, rien n'oblige le visiteur à interpréter ce qu'il voit comme l'institution ou la pratique codifiée le suggère, l'attend ou l'enseigne. Face à l'argument de l'égalité des intelligences, la sociologie que nous avons qualifiée de sémiotique, qui s'appuie sur le principe d'une relation instrumentale rationnelle entre émetteur et récepteur dans les sciences de la communication, perd du terrain. Pour reprendre et dépasser l'image de l'émetteur et du récepteur, ce que J. Rancière suggère, c'est que le récepteur peut choisir son code. Le visiteur peut donc être perçu comme « l'autre » au sein du musée. A la réflexion de J. Rancière, on peut joindre celle de T.W. Adorno et accorder au visiteur la place du sujet dans une relation propre à la dialectique négative. Le visiteur est, dans l'espace muséal, un fauteur de trouble potentiel. Il ou elle a la capacité de percevoir ce que l'institution, ou pour reprendre le fil de notre argumentation le principe républicain, lui dénie le droit de voir. Il active alors la question démocratique. Dans cette approche de l'espace muséal, l'idée de l'anonyme chez J. Rancière et du non-identique de T.W. Adorno, se rejoignent, faisant le lien avec le concept d'espace public oppositionnel de O. Negt comme espace de médiation de ces expériences vivantes et négatives : « L'espace public prolétarien exclut l'espace public bourgeois, dans la mesure où le premier dissout les éléments constitutifs du second, qui sont pour partie détruits, pour partie assimilés. L'espace public bourgeois procède de même, obéissant à des intérêts diamétralement opposés, avec toute sorte d'espace public prolétarien qui n'est pas en mesure de s'appuyer sur un contre-pouvoir, afin de mettre en échec l'attaque dont il fait l'objet. La coexistence est impossible.
2»
1 Jacques Rancière (2008), Opus cité, p. 23 2 Oskar Negt (2007), Opus cité, p. 82 249
Ce qui pose alors problème, serait de savoir sur quels contre-pouvoirs, ou plutôt quels antipouvoirs, s'appuieraient la diversité et l'anonymat des visiteurs. On peut penser qu'il n'en existe pas, ou qu'il prend place dans l'en-dehors du musée : dans l'événement constitué par le non-intérêt pour la visite muséale, mais qui ne signifie pour autant le désintérêt pour toute pratique culturelle. Cela reviendrait à admettre encore une fois l'homogénéité sociale et sans failles des visiteurs. On affirmera alors plutôt que c'est l'ouverture des possibles permise par la diversité des interprétations dues à la présence des visiteurs qui compose de l'altérité face à l'institution. Dans cette lecture de l'espace muséal le visiteur n'est forcément pas un objet dominé mais un sujet critique, « car la question n'a jamais été pour les dominés de prendre conscience des mécanismes de la domination, mais de se faire un corps voué à autre chose que la domination. 1» L'autre dans le musée est simplement l'ensemble hétérogène et insaisissable des visiteurs. J. Rancière ajoute à la suite de la citation extraite plus haut : « Ce que nos performances vérifient – qu'il s'agisse d'enseigner ou de jouer, de parler, d'écrire, de faire de l'art ou de le regarder – n'est pas notre participation à un pouvoir incarné dans la communauté. C'est la capacité des anonymes, la capacité qui fait chacun(e) égal(e) à tout(e) autre. Cette capacité s'exerce à travers des distances irréductibles, elle s'exerce par un jeu imprévisible d'associations et de dissociations. 2» Pour illustrer cette idée, on peut citer le roman de Peter Weiss, dans lequel de jeunes militants ouvriers allemands, pendant la république de Weimar, questionnent les sens de l'art à l'occasion de visites de musées. Le récit montre que les protagonistes n'y perçoivent pas ce que racontent les historiens de l'art, tout comme ils rejettent des lectures socialistes des oeuvres d'art : « () il arrive parfois que me répugnent même les historiens de l'art qui, pointant l'index, oublient les sens multiples de chaque oeuvre, quant à ceux qui imposent au nom des considérations politiques, ils ne savent rien de la nature de l'art. 3» 1
Jacques
Ranc
ière (2008), Opus cité, p. 69 2 Ibid., p. 23 3 Peter Weiss, L'esthétique de la résistance. 1989, Paris, Klincksieck, p. 86 250
C'est également le libre jeu des interprétations des objets d'art qui fait écrire à W. Benjamin dans ses thèses sur l'histoire, citées partiellement plus haut : « Le butin, selon l'usage de toujours, est porté dans le cortège. C'est ce qu'on appelle les biens culturels. () De tels biens doivent leur existence non seulement à l'effort des grands génies qui les ont créés, mais aussi au servage anonyme de leurs contemporains. Car il n'est pas de témoignage de culture qui ne soit en même temps un témoignage de barbarie. Cette barbarie inhérente aux biens culturels affecte également le processus par lequel ils ont été transmis de main en main. 1» En effet, rien de permet d'affirmer que le musée mène à bien sa mission communautaire, et rien ne permet d'écrire que les visiteurs n'aient pas la possibilité de percevoir dans les « témoignages de culture » des « témoignages de barbarie », ou autre chose encore. C'est également une multiplicité d'interprétations et le caractère insaisissable des visiteurs de musée qu'une série d'entretiens avec des visiteurs réalisée dans le cadre de cette enquête nous a montrés. Si penser le musée comme un espace agité par une tension entre le principe républicain et la question démocratique, force à prendre une certaine distance avec la sociologie classique des publics, cette distance est induite par la question démocratique elle-même. Cette approche offre en tout cas une autre perspective de recherche, bien que le terrain et les problématiques soient proches. Avec raison, la sociologie classique des publics des musées cherche la polémique. Elle observe et dénonce un monopole social sur les pratiques culturelles en jeu dans le musée d'art. Mais elle n'utilise pas vraiment le bon angle d'attaque pour déstabiliser l'institution muséale dans la mesure où elle cherche à la faire changer. Ici, nous n'avons pas la prétention de donner des pistes pour un tel 1 Walter Benjamin, OEuvres III. 2000, Paris, Gallimard, pp. 432, 433 2 Entretiens réalisés avec des visiteurs du Louvre et d'Orsay aux sorties du musée, cf. Chapitre IV 251 changement, mais nous affirmons que l'on peut adopter une lecture de l'espace muséal qui le voit comme d'ores et déjà, en lui-même et intrinsèquement, déstabilisé : il est au centre de la tension que nous caractérisons par la friction entre le principe républicain et la question démocratique. Le musée national dans l'oeil du cyclone
Cet épilogue provisoire anime les ressorts de la suite de notre analyse. Avant donc de présenter les mutations contemporaines des musées d'art nationaux, en prenant comme exemple les musées du Louvre et d'Orsay, reprenons les éléments essentiels que l'on peut extraire du flot historique et conceptuel dans lequel nous avons situé le musée national. Réaffirmons tout d'abord que le musée national est un musée républicain. A ce titre il est dépositaire du, et fondé sur le principe républicain, qui est un principe de police. La police est le processus qui contient la politique entendue comme l'expression d'un tort. Elle affirme un partage du sensible légitimé par son universalité, qui « fixe () dans un même temps un commun partagé et des parts exclusives. () Le partage du sensible fait voir qui peut avoir part au commun en fonction de ce qu'il fait, du temps et de l'espace dans lesquels cette activité s'exerce. 1» Entendu comme musée républicain, le musée national est, de par son histoire et son élaboration intellectuelle, une institution des Lumières. Il prend ainsi part à des processus de réification, qui sont des processus d'identification2 qui se veulent universels. D'une part, il réifie la relation aux arts, ces derniers pouvant être entendus au contraire comme des événements de surgissement du nonidentique et de potentialités émancipatrices3. Les biens culturels exposés dans le musée sont identifiés comme un patrimoine. La patrimonialisation, l'inscription de fonctions communautaires à des biens culturels, n'est pas le seul fait de la mise en exposition dans le musée. Elle est le fait d'un ensemble de dispositions symboliques et administratives propres à l'Etat républicain, dans le contexte français. En ce sens, le musée national ne peut déconnecté de tendances plus générales 1 Jacques Rancière
(2000)
, Opus
cité,
pp
.
12-13 2 Max
Horkheimer
et
Theodor W. Adorno
(1974), Op
us
cité. 3 Theodor W. Adorno,
L'art et les arts.
2002, Paris
, Desclée de Brouwer
, 138 p.
; Jacques Rancière
, Le
partage du sensible. 2000, Paris, La Fabrique, 74 p. ;
Ernst B
loch, Le principe espérance, Tome 1. 1976, Paris, Gallimard, 535 p. 253
qui sont celles d'une pensée de la gouvernance et de la raison d'Etat : une volonté de gestion de la question politique. D'autre part, il réifie la place du public constitué par ses visiteurs. Le principe républicain se caractérise par sa filiation avec un espace public, espace informel de la mise en discussion1. Celui-ci procède de manière exclusive en n'admettant pas l'expression du plus grand nombre, mais en consacrant celle d'un groupe particulier, « la plus forte minorité 2», et ses modalités d'expressions. Toutefois cette exclusion est inavouée, dans la mesure où la publicité s'affirme comme étant accessible à tous et fonctionnant elle-même sur le principe d'universalité. A ce titre, le fait que l'accès au musée national soit libre, bien que médiatisé par un échange monétaire, est significatif. Les édifices monumentaux des institutions muséales incarnent cette affirmation spécifique de la publicité. Ainsi le palais royal du Louvre devient un espace public, symbolisant le passage du pouvoir monarchique au pouvoir public. Deux siècles plus tard, à l'inverse mais sur le même schéma, la gare d'Orsay est transformée en musée national, illustrant symboliquement la dimension de déambulation publique de ce dernier, et consacrant un édifice représentant la révolution industrielle. L'expression dans l'espace public est un enjeu conflictuel. Ainsi les élites voient dans le musée national la validation de la culture légitime. Elles dénoncent ainsi l'ouverture de l'interventionnisme 1 Jürgen Habermas (1992), Opus cité. 2 Jacques Rancière (2005), Opus cité, p. 84 254 culturel de l'Etat à des formes illégitimes, tout comme elles condamnent les entreprises d'appropriations populaires des musées nationaux. Cette prise de position illustre la manière dont le musée national a intégré le principe de police et crée de l'identification. Il convient de rappeler qu'à sa naissance révolutionnaire, il est déjà marqué par la condamnation des élites dans un autre registre mais sur le même fondement. Se pose alors la question de l'appropriation symbolique des espaces et des biens culturels, qui renvoie elle aussi à un partage du sensible. Une approche positiviste les confisque en leur donnant une tâche éducative et/ou de révélation esthétique, tandis qu'une approche en terme de « non-identique » permet de voir le dépassement – le refus – des codes dominants par les visiteurs, et l'émancipation des biens culturels de leur assignation patrimoniale. En effet, la réification n'est pas une forme aboutie, c'est un processus, l'enjeu d'une lutte conflictuelle. Ce conflit met en évidence que l'espace public ne peut être assimilé à la République. Si l'espace public bourgeois fonctionne sur le principe d'une exclusion, qui correspond au principe républicain de police, un espace public oppositionnel venant le contrarier se développe dans son sillage et à ses côtés1. Celui-ci pose la question démocratique au sein de l'institution. Si on admet une insaisissabilité des publics, entendus comme des acteurs interprétant subjectivement et non comme des spectateurs aveuglés, l'espace public oppositionnel apparaît en négatif par rapport aux prises de position contre le musée et sa dimension publique. Pour une certaine interprétation, les spectateurs ne peuvent faire autre chose que se soumettre aux codes dominants. Pour une autre, ces mêmes spectateurs dénaturent la culture cultivée en la traitant comme un loisir. Or, selon des lectures alternatives, on peut affirmer que toute domination appelle une résistance, ou que toute domination correspond à un besoin d'expression autre2 : les processus sociaux sont des terrains conflictuels. En ce sens, la publicité du musée implique des propositions alternatives d'interprétations de l'institution 1 Oskar Negt (2007), Opus cité. 2 James C. Scott, La domination et les arts de la résistance : fragments du discours subalterne. 2009, Paris, Amsterdam, 269 p. 255 et de l'espace muséaux. Au carrefour des conceptualisations de la réification propre au destin politique des Lumières, du principe républicain et de l'espace public se trouve le principe de validation propre à une synthèse sociale réalisée par l'économie politique et l'abstraction des relations sociales qu'elle induit 1. L'interventionnisme culturel de l'Etat n'en est pas exclu. Au contraire, au-delà de la question du droit d'entrée au musée, la place que l'Etat accorde dans ses préoccupations culturelles aux industries de la culture montre que les logiques économiques constituent la matrice de son action. C'est d'ailleurs ce qui semble caractériser l'évolution du système muséal dans la première décennie du XXIème siècle que nous allons évoquer par la suite, en gardant à l'esprit que cette dynamique a été enclenchée dans les années 1980 et qu'elle s'inscrit dans le mouvement cohérent d'une objectivation de la gestion des publics. L'évolution actuelle se caractérise par une mutation des modes de gestion des musées nationaux. C'est a priori une nouvelle logique de l'orientation de l'Etat qui s'engage, mais suivant notre argumentation, c'est plutôt une affirmation des liens entre l'Etat et la sphère économique qui est en jeu. Ces liens étroits fondent « la logique du système oligarchique. Selon cette vision, il n'y a qu'une seule réalité qui ne nous laisse pas le choix de l'interpréter et nous demande seulement des réponses adaptées qui sont les mêmes, quelles que soient nos opinions et nos aspirations. Cette réalité s'appelle économie : en d'autres termes, l'illimité du pouvoir de la richesse. 2» Il s'agit alors d'appliquer des principes économiques dans l'institution muséale. « Gouvernants et experts jugent possible () de calculer le bon équilibre entre la limite et l'illimité. C'est ce qu'on appelle modernisation. Celle-ci n'est pas une simple tâche 1 Moishe Postone (2009), Opus cité, et, Jean-Marie Vincent (1987), Opus cité. 2 Jacques Rancière (2005), Opus cité, p. 85 256 d'adaptation des gouvernements aux dures réalités du monde. Elle est aussi le mariage du principe de la richesse et du principe de la science qui fonde la légitimité oligarchique nouvelle. 1» Voyons donc maintenant en quoi consiste la modernisation des modes de gestion des musées nationaux et quelles reconfigurations de la tension entre principe républicain et question démocratique sont en jeu. 1 Ibid., p. 86
257 Chapitre III - La nouvelle dynamique des musées nationaux Vers le musée-entreprise
Sans nier l'histoire du musée national, la plupart des études concernant l'évolution statutaire de ces institutions, n'apprécient pas la dimension conflictuelle et mouvante de la forme publique du musée. Quand celle-ci est évoquée, c'est généralement pour rejouer le débat entre iconoclastie et conservation. La première étant le fait de la violence révolutionnaire, la seconde relevant de la république éclairée. Comme nous l'avons vu, tensions et contradictions animent le musée tout au long de son évolution historique. Ces tensions et contradictions, si elles s'y déclinent de manière particulière, ne sont bien sûr pas propres à l'institution muséale. Elles sont le fait des processus sociaux qui se tissent et se décousent au long de l'histoire. C'est selon nous, et suivant les chemins d'analyses que nous souhaitons emprunter, un élément essentiel. Cela empêche de penser les musées publics exposant des biens culturels non contemporains, comme des institutions exposant « notre patrimoine » ou relevant de « notre identité culturelle. » On a vu au contraire que la notion de patrimoine peut être perçue dans les termes d'une problématisation de la communauté nationale, et que l'identité culturelle nationale est plus une construction bancale à la recherche d'une cohérence, qu'un socle homogène et stable. Puisque nous nous apprêtons à évoquer la réforme des musées nationaux à travers celle de leurs modes de gestion, il s'agit de considérer ces tensions et contradictions comme un arrière-plan. Ici, l'objet ne sera pas d'opposer gestions publiques et privées, de reconnaître les avantages et les inconvénients de tel ou tel type de gestion, mais de caractériser la réforme des musées nationaux pour pouvoir l'analyser en tant que processus en mouvement. Ainsi, il faut prendre une certaine distance avec toute la littérature consultée à l'occasion de ce travail de recherche. En effet, presque exclusivement, l'état de la recherche sur les mutations du système muséal se concentre sur des 258 problématiques de gestion. Elles sont bien évidemment essentielles pour cerner les cadres de fonctionnement du musée. Mais il est peut-être symptomatique de ces mutations que l'évolution des musées ne soit pensée que dans une optique gestionnaire. Quand l'analyse n'est pas centrée sur la gestion, elle est principalement orientée vers une défense des qualités de service public du musée national dans les termes de la défense des biens constituant le « patrimoine national, fondements de l'histoire de notre culture et que la République se doit de montrer et de préserver. 1» Notre intérêt se situe ailleurs, dans l'éventualité d'une reconfiguration des tensions et contradictions propres au musée national par l'évolution de leurs modes de gestion, notamment l'évolution de la tension particulière entre principe républicain et question démocratique caractérisée par notre discussion. Ici encore, nous affirmons la dimension non-utilitariste de notre démarche, qui se distingue en cela de toute analyse gestionnaire du système muséal, mais aussi de celles qui se proposent de défendre le service public culturel. Notre approche, n'a pas d'autre force de proposition que celle de la réflexion. On présentera ici les principales modifications du monde muséal, sans perdre de vue que nous ne prendrons comme exemples que deux grands établissements français : les musées du Louvre et d'Orsay. Si ce choix ne permet pas a priori de généraliser l'analyse à l'ensemble du système muséal, il ouvre néanmoins des portes pour une présentation du devenir de ces établissements – et par extension d'un pan de la politique muséale – à l'ère de la consécration des industries culturelles. Il convient en outre d'ajouter, et c'est une tendance qui s'illustre dans nos deux exemples, que le processus d'autonomisation sur lequel nous travaillerons est préconisé de manière générale par les orientations de l'Etat2. Les grands musées nationaux que sont le musée d'Orsay et le musée du Louvre avec leurs millions de visiteurs nationaux et internationaux annuels, ne sont, bien sûr, pas
1 Françoise Cachin, Jean Clair, Roland Recht, « Les musées ne sont pas à vendre » in Le Monde, 12 décembre 2006. 2 Voir : Révision Générale des Politiques Publiques, RGPP : premier rapport d'étape La RGPP s'applique, la réforme de l'Etat se poursuit. Décembre 2008 ; Cour des Comptes, Les musées nationaux après une décennie de transformations, 2000-2010. Mars 2011, 270 p. ; Nicolas Perruchot, Richard Dell'Agnola, Marcel Rogemont, Rapport d'information déposé en application de l'article 145 du Règlement par la Commission des finances, de l'économie générale et du plan en conclusion des travaux de la Mission d'évaluation et de contrôle (MEC) sur le musée du Louvre. 2009, Paris, Assemblée Nationale, 181 p. 259 des institutions culturelles comme les autres. On s'en tiendra ici, autant que possible, à une présentation factuelle de la réforme des musées nationaux. Dans un premier temps, il sera question de ses éléments précurseurs. On verra comment le musée du Louvre fut le premier musée national à devenir un Etablissement Public Administratif (EPA) en 1992 et en quoi cette transformation annonçait une marche à suivre pour les autres musées nationaux. On caractérisera alors cette mutation en fonction de l'autonomie administrative acquise par les établissements par rapport à leur ministère de tutelle et on questionnera la rationalisation que ses nouveaux modes gestions impliquent. On s'intéressera alors à la manière dont les personnels de musées, et pas seulement leurs directions, présentent ces transformations. On verra d'autre part en quoi la « loi musée » de 2002 posa les bases des transformations statutaires des institutions muséales publiques. Il paraîtra essentiel de revenir alors sur les missions de la Réunion des Musées Nationaux (RMN) et on s'apercevra dans quelle mesure leur refondation s'imposait dans le sillage du mouvement de réforme. La mutation de cet Etablissement Public à caractère Industriel et Commercial (EPIC) apparaît comme un élément essentiel, et non pas contextuel, de la transformation statutaire des musées nationaux. Si la RMN se voit reconfigurée, c'est que son rôle de mutuelle des musées nationaux devient caduc face aux évolutions statutaires de ces derniers. Les musées nationaux devenus Etablissements Publics Administratifs doivent en effet développer leurs capacités à dégager des ressources propres et se voient soumis à des obligations de résultats. Nous nous arrêterons particulièrement sur ce point dans la mesure où c'est cette dimension qui semble construire une logique nouvelle dans le monde muséal et travailler les relations qu'entretient l'institution avec le monde qui l'entoure. C'est d'abord la présence des visiteurs se trouve pensée différemment, mais aussi les liens que tissent les musées nationaux avec d'autres institutions. Enfin, dans la mesure où nous pensons le musée dans la manière dont il s'articule avec des principes de gouvernance, et que nous percevons la réforme des musées comme un ensemble de dispositions 260 éclatées, on s'arrêtera sur des éléments contextuels susceptibles d'approfondir la réflexion. 261 La modernisation des modes de gestion des musées nationaux L'Etablissement Public Administratif du Grand Louvre L'autonomie et la rationalisation des grands musées nationaux Le tournant de 2002 : la « loi musée » Généraliser la création d'Etablissements Publics Administratifs
Evoquant le cas de la Réunion des Musées Nationaux RMN, nous avons mentionné ce qu'était un Etablissement Public à caractère Industriel ou Commercial (EPIC) : une structure publique à la gestion allégée pour pouvoir exercer des activités commerciales ou industrielles de service public. Nous avons vu en quoi, dans le cadre des politiques culturelles, l'introduction de ce statut révélait leurs dimensions commerciales. Il faut maintenant se pencher sur une autre forme juridique, celle de l'Etablissement Public à caractère Administratif (EPA). Pratiquement, un EPA est en charge d'un service public administratif et il est placé sous la tutelle d'un ministère. Ses activités principales ne sont ni commerciales ni industrielles, mais à l'instar de l'EPIC, il bénéfice d'un mode de gestion assoupli par rapport au droit public. Il relève d'un droit mixte, en pouvant emprunter des modes de gestion privés. Par exemple, son personnel n'est pas composé uniquement d'agents publics, mais aussi de contractuels. De plus, depuis 2000 un EPA peut-être candidat à l'attribution de marchés publics ou d'une délégation de service public. Sans entrer dans les détails pour l'instant, on cherchera ici à mettre en évidence les principaux éléments précurseurs de la réforme des musées nationaux : la création de l'EPA du Grand Louvre, la tendance qu'elle engage et ses premiers effets directs, l'externalisation des activités du musée notamment. On s'attachera ensuite à comprendre en quoi la « loi musée » votée début 2002 s'inscrit de manière cohérente dans cette tendance dans le large mouvement de réforme qui s'en suivra. L'Etablissement Public Administratif du Grand Louvre
Le musée du Louvre fut le premier musée national à acquérir le statut d'EPA, en 1993, à l'occasion des travaux du Grand Louvre. Ce statut définit par le décret du 22 décembre 1992 portant sur la création de l'Etablissement public du musée du Louvre 1 permet alors au musée de se voir attribuer la gestion et la perception directe des recettes issues de sources privées, mais aussi de son droit d'entrée. Cela est important dans le cas de l'établissement du Louvre puisqu'il encaisse les redevances liées à l'exploitation de la galerie commerciale Carrousel-Louvre installée en son sein. C'est un atout majeur pour l'établissement au vu des boutiques qui y sont présentes : enseignes importantes, Apple ou Virgin pour ne citer qu'elles. Mais le musée peut aussi recevoir lui-même des dons et des legs sans l'intermédiaire du ministère, tout comme il peut encaisser les recettes liées à l'exploitation privée des espaces dont il dispose : auditorium, salles de conférences et les espaces muséaux eux-mêmes. Ces compétences sont également élargies aux fonctions financières et commerciales, aux droits intellectuels et leur exploitation, aux droits de propriété des bâtiments et des biens mobiliers et immobiliers dont il dispose. Seules les collections nationales dont il a la garde restent propriété directe de l'Etat via le ministère. L'émancipation vis-à-vis de ce dernier est donc très importante au vu des liens qui prévalaient auparavant en termes de gestion et d'administration. Le Louvre fut pionnier en la matière et annonçait les nouveaux modes de gestion des espaces muséaux. On doit toutefois signaler que la dynamique avait déjà été engagée par l'ouverture d'un complexe poly-culturel, le Centre national d art et de culture Georges Pompidou, en 1977. Un établissement qui occupe une place à part dans notre champ de recherche dans la mesure où il n'est pas un musée national, s'appuie sur une diversité d'activités et est consacré à la création moderne et contemporaine. Mais certains aspects de l'ouverture du Centre renvoient bien au phénomène dont il sera question ici, l'autonomie de gestion de l'établissement vis-à-vis du ministère 1 Décret n°92-1338 du 22 décembre 1992 portant création de l'Etablissement public du musée du Louvre 263 de la Culture et ses relations avec la Réunion des Musées Nationaux notamment1. La création de l'EPA du Louvre ne soulève pas que des questions de gestion. C'est l'espace et l'institution muséaux, leurs représentations elles-mêmes, qui évoluent alors. A ce titre, l'introduction d'une galerie commerciale est importante tandis que le musée national paraissait jusqu'ici être un espace se distinguant du commerce et de l'économie marchande. Ainsi, l'installation de représentants majeurs des industries culturelles dans une galerie commerciale, au sein du Louvre est éloquente. Outre cette arrivée en force du commerce dans l'espace du musée, premier signal d'une tendance profonde, c'est également la redéfinition de la tutelle administrative exercée par le ministère de la Culture sur l'établissement qui est ici importante. C'est ainsi qu'il est question « d'autonomisation » du musée national. L'autonomie et la rationalisation des grands musées nationaux
Le cas du Louvre est important dans la mesure où il se pose a posteriori comme précurseur de cette autonomisation. D'autres musées nationaux ont suivi cette voie, trois autres EPA ont été créés : celui du musée et domaine national de Versailles2 en 1995, ceux du musée Guimet3 et du musée d'Orsay4 en 2004. Tous les trois peuvent se prévaloir des attributions propres aux Etablissements Publics Administratifs que nous avons décrites. Ces créations d'EPA traduisent elles aussi le besoin d'autonomie de ces institutions par rapport au ministère de la Culture. Elles laissent entrevoir un fonctionnement plus souple et notamment des modes de gestion directe leur permettant une meilleure capacité d'action. A la lecture de ces décrets de création, on s'aperçoit que c'est sur le
1 Voir : Bernadette Dufrêne (2007), Opus cité. 2 Décret n° 95-463 du 27 avril 1995 portant création de l' Etablissement public du château, du musée et du domaine national de Versailles 3 Décret n° 2003-1301 du 26 décembre 2003 portant création de l'Etablissement public du musée des arts asiatiques Guimet 4 Décret n°2003-1300 du 26 décembre 2003 portant création de l'Etablissement public du musée d'Orsay 264 modèle
de
celui du L
ouvre qu'ils se déclinent presque à l'identique 1 : mêmes structures, mêmes dispositions culturelles. Ce dernier s'affirme alors comme indiquant la tendance de transformation. Nous en analyserons les principales dispositions plus loin. Arrêtons-nous d'abord sur les effets les plus directs : l'externalisation des activités et la gestion recentrée des ressources humaines. A priori, ces mutations administratives réaffirment le rôle de services publics culturels de ces établissements : de l'acquisition à la mise en visibilité de biens culturels, en passant par leur conservation, et la nécessaire ouverture de l'espace au public le plus nombreux. La crainte de nombreux professionnels du monde des musées et des personnels de musée que nous avons rencontrés était pourtant bien une tendance à la privatisation. La sous-traitance étant encouragée, on pouvait se demander si les prérogatives culturelles et scientifiques des musées le seraient également. C'est une question bien légitime, notamment au niveau des personnels et de leurs syndicats qui s'interrogeaient quant au devenir de leur statut d'agents publics. Si le statut des fonctionnaires en poste n'a pas bougé, leur hiérarchie s'est déplacée à l'intérieur même de l'institution quand elle relevait auparavant du ministère. Présenté comme une rationalisation de la gestion des ressources humaines, c'était pour beaucoup d'entre eux une forme d'imposition plus directe de l'autorité hiérarchique administrative. Toute la logique des rapports de forces entre les agents et leur hiérarchie s'en trouvait bouleversée, notamment dans la mesure où la fonction publique connaît un assez fort taux de syndicalisation. Il fallut donc réapprendre, dans ce nouveau paysage, à négocier avec de nouveaux interlocuteurs et dans de nouveaux cadres. Les premiers effets de la réforme ont été d'encourager la tendance déjà engagée de recours à la sous-traitance et à l'externalisation des activités. C'est donc surtout pour les personnels recrutés après le changement de statut que les règles ont changé : qu'ils soient des salariés contractuels du musée ou qu'ils soient employés par une entreprise à qui fait appel l'EPA dans le cadre de 1 Décret n°92-1338 du 22 décembre 1992 portant création de l'Etablissement public du musée du Louvre 265 l'externalisation de ses activités. Pour ces derniers, le fait que leur lieu de travail soit un établissement public n'a pas de répercutions sur la spécificité de leur contrat de travail. Ils sont soumis au code du travail propre au droit privé dans la mesure où ils sont employés par les entreprises sous-traitantes exerçant leurs activités au sein des musées. Le recours à la sous-traitance s'est largement développé dans les musées devenus EPA : en particulier avec le recours à des sociétés de nettoyage ou de sécurité pour assurer les contrôles préliminaires à l'entrée dans les bâtiments muséaux. C'est ce que nous confie un agent de surveillance du Louvre : « Peux-tu me parler des activités qui sont déjà externalisées? - Il y en a beaucoup! Je pense par exemple au ménage - ça ne l'a pas toujours été? - Non, avant c'était les agents qui faisaient le ménage. Ça faisait partie des tâches d'entretien du bâtiment. Et le mardi, le jour de fermeture, je faisais donc le ménage. Les gardiens étaient aussi agents d'entretien. Mais ça doit bien faire 15 ans maintenant que c'est une entreprise privée qui fait le ménage au Louvre. Je crois que c'est le premier truc qui a été externalisé. Après, avec l'ouverture de la pyramide en 1993, tous les contrôles extérieurs et sous la pyramide ont été externalisés. Puis, ça a souvent changé de nom. Au tout début c'était Goron, aujourd'hui c'est Mensécurité. En fait, tous les trois ans, les marchés sont renouvelés. Il y a aussi tout l'entretien technique, comme les installations électriques, qui a été externalisé. Avant, on avait des électriciens au Louvre, on avait des ouvriers. Qui étaient fonctionnaires. Le courrier aussi a été externalisé. Avant c'était aussi les gardiens qui s'en occupaient. On a énormément de sociétés privées qui viennent travailler ici. » Il ressort de cet extrait la diversité des activités externalisées. Il convient d'ores et déjà d'estimer les effets de cette tendance, un certain nombre de contradictions apparaissant ici et là. Si la gestion des personnels est recentrée au sein de l'institution en raison du statut d'EPA, on peut se demander si le recours à la sous-traitance, l'externalisation des activités en général, n'est pas paradoxalement une nouvelle forme d'éclatement de la gestion des ressources humaines. Il y a ici une contradiction importante que ne relèvent pas les directions des établissements muséaux, alors même que celles-ci argumentent leur besoin d'autonomie par la nécessaire rationalisation de leurs activités. En lieu et place de rationalité, il semble plutôt que la gestion des musées s'inscrive dans la tendance plus générale d'introduction dans le secteur public d'un management tel qu'il est exercé dans le secteur privé 2. Le recours à la sous-traitance permet d'une part de délocaliser les rapports de forces propres à la relation salariale, mais aussi de calibrer les activités pour des raisons budgétaires sans qu'un obstacle statutaire ne s'y oppose. Mais il reste à
1 Christian Kert, Office parlementaire des choix scientifiques et technologiques, Rapport sur les techniques de restauration des oeuvres d'art. Assemblée Nationale, 15 juin 2006 2
Ce qui est largement admis et étudié comme étant le nouveau management public. Voir par exemple :
Michel Chauvière, Trop de gestion tue le social. Essai sur une discrète cha
landisation
. 2007, Paris, La Découverte, 224 p. ; Raymond Curie, Le travail social à l'épreuve du néo-libéralisme. Entre résignation et résistance. 2010, Paris, L'Harmattan, 152 p. et Philippe Bezes, Réinventer l'Etat, les réformes de l'administration française. 2009, Paris, PUF, 544 p. 267
savoir si ces deux arguments trouvent une validité pratique dans la des établissements. Il apparaît que cette stratégie de gestion n'a pas les effets pratiques qu'elle dit rechercher. Si en effet les salariés des entreprises sous-traitantes ne sont plus des agents publics fortement syndiqués, cela ne les empêche pas d'exercer leur droit de grève, même si les conséquences d'une telle décision sont pour eux différentes. C'est ce qu'a démontré la grève des personnels, pour des revendications salariales, de la société privée qui assurait la régulation des entrées sous la pyramide du Louvre en 1998. Comme le raconte un des animateurs de ce mouvement que nous avons rencontré : « C'était assez clair qu'on n'avait pas la même culture syndicale que les agents du Louvre, d'ailleurs on se côtoyait assez peu. Mais quand on les voyait se mettre en grève, on les voyait gagner presque à chaque coup. Quand avec quelques collègues on a réalisé qu'on pouvait paralyser le musée en se mettant en grève nous aussi, ça n'a pas été facile, mais on a réussi à être nombreux. A cause de nous, les gens n'entraient pas au musée. Nos chefs étaient furax, mais les supérieurs hiérarchiques du Louvre aussi. Finalement on a gagné les augmentations de salaires qu'on demandait assez rapidement. Peut-être parce que la direction du Louvre a fait pression sur notre boîte en la menaçant de ne pas renouveler sa concession. Pour ma part, j'avais un CDD comme la plupart d'entre nous et mon contrat de travail n'a pas été renouvelé. » Stratégie perdante donc pour la direction du musée si elle pensait se débarrasser des conflits sociaux par la sous-traitance. Ils ne font que se déplacer, et leurs acteurs avec eux, les chefs sont « furax » et mis sous pression par les « érieurs hiérarchiques du Louvre. » Le cas évoqué montre également des conséquences particulières pour les salariés. La personne que nous avons rencontrée laisse entendre que c'est bien parce qu'elle était active dans le conflit que son contrat n'a pas été renouvelé. Un autre paradoxe de la stratégie de l'externalisation des activités réside dans le besoin permanent 268 des activités sous-traitées. Si un des arguments gestionnaires est de pouvoir faire appel ponctuellement à certaines entreprises en fonction des besoins du musée, cette stratégie est limitée dans la mesure où l'établissement a un besoin permanent de ces activités. Par exemple, la soustraitance de l'entretien à des sociétés privées de nettoyage ne rime pas avec la possibilité d'arrêter d'entretenir le musée pour des raisons budgétaires. Il en va de même pour les compétences propres aux installations électriques qui doivent être adaptées et entretenues, ou, aux constructions de menuiserie qui changent d'une exposition à l'autre. Si la demande d'autonomie s'appuyait sur l'argumentation d'une rationalisation des activités et de leurs gestions, il semble que celle-ci est trompeuse ou erronée. Si d'autre part les demandes d'autonomie qui paraissaient légitimes au vu du poids bureaucratique introduit par l'inter-médiation de la gestion ministérielle des personnels, il semble que les intermédiaires aient juste été déplacés, et les conflits sociaux avec eux. En effet, si l'établissement ne doit plus passer par le ministère pour gérer une partie de son personnel, il doit désormais passer par les directions des entreprises sous-traitantes. Si le musée bénéficie alors, via ces entreprises, de la souplesse relative du droit du travail privé, il n'en est pas moins toujours privé d'une gestion directe de son personnel. L'intérêt pour l'établissement se situe ailleurs : une décharge des responsabilités et un report des coûts. En cas d'insatisfaction, le Louvre n'a qu'à faire pression sur la hiérarchie de l'entreprise intervenante et/ou changer d'intervenant à travers l'appel 'offre suivant. En ce qui concerne les agents de la fonction publique, il ne semble pas que la nouvelle configuration facilite vraiment leurs rapports avec l'administration, rationalise la gestion du personnel, selon ce que nous rapporte un agent du Louvre : « L'argument principal qui nous était tenu au moment de ce changement de statut était ''la gestion de proximité.'' Avec le temps et dans la pratique on se rend compte que l'on est pas mieux géré. C'est d'ailleurs amusant de voir comment l'administration centrale était 269 critiquée, et comment on s'aperçoit aujourd'hui qu'elle ne faisait pas si mal son travail. Au niveau des paies par exemple. C'est aujourd'hui le Louvre qui les gère et on rencontre beaucoup plus de problèmes qu'avant. Je ne sais pas vraiment comment l'expliquer. Ce qui est sûr, c'est qu'il y a un turn-over plus important dans les postes de gestion, on n'a jamais à faire aux mêmes personnes. Chacun a des méthodes ou des principes de gestion différents, chacun se renvoie la balle disant ''c'est pas ma faute mais celle de mon prédécesseur'' et ça crée des problèmes pour ceux qui sont ''gérés.'' Par exemple, un des agents se retrouve en congés maladie et ne touche plus que 400 euros par mois. Tu imagines bien dans quelle galère il peut être. - Et tu as le sentiment de ces problèmes de gestions se sont accentuées depuis 1995? - Oui, clairement. D'autre part, paradoxalement, alors que l'on parle de ''gestion de proximité'' on a beaucoup plus de mal à régler ce genre de problèmes administratifs. Avant, lorsqu'il y avait un problème sur la paie, on allait voir le comptable, il nous débloquait la somme en attendant que la situation se régularise. C'est sûr que c'était la pagaille Maintenant, face aux mêmes problèmes de paye, il faut un mois pour régler la question. Certains agents se retrouvent donc avec des soucis financiers pendant tout un mois. Comment fait-on dans ces cas là quand on doit s'occuper de sa famille, payer les transports et son loyer? La ''gestion de proximité'' semble être plus complexe qu'avant. Alors même qu'on vantait ses effets simplificateurs. Il y a un vrai décalage entre le discours qui est tenu et la réalité que l'on vit. » La « gestion de proximité » semble bien complexifier, ou plutôt compliquer, les inter-relations hiérarchiques et administratives. Ainsi, il est difficile d'entendre les demandes d'autonomie des directions des établissements muséaux sans y percevoir des contradictions irréductibles. Que ce soit celles d'Henri Loyrette, président-directeur de l'EPA Louvre depuis 2001 : « Je ne pense pas que le rôle du ministère de tutelle soit d'intervenir directement dans la gestion des établissements, de 270 manière parfois tatillonne 1», ou ceux de Serge Lemoine, directeur de l'EPA d'Orsay de 2001 à 2008 : « Le Musée d'Orsay occupe déjà une place de premier plan dans le monde, il faut la conforter, en lui donnant plus d'autonomie, ce que ses tutelles ne lui ont pas vraiment octroyé jusqu'à maintenant. 2» Si la transformation en EPA est présentée comme une réponse au besoin d'autonomie des établissements, elle ne semble a priori pas porter les fruits d'une quelconque rationalisation pour les acteurs. On perçoit ici le caractère polémique ou idéologique de l'utilisation des occurrences « rationalité » et « autonomie. » Suivant les propos d'Henri Loyrette qui s'exprime régulièrement dans la presse et qui semble être le chef de file des établissements réclamant de l'autonomie, le statut d'EPA ne suffit pas, la tutelle du ministère reste trop grande. C'est ce que l'on entend également dans les propos de Serge Lemoine pour le musée d'Orsay. Si le Louvre dispose de ce statut depuis 1993, c'est d'ailleurs seulement à partir de 2001 que les facilités propres à l'EPA ont été exploitées dans l'établissement et ne semblent pas avoir encore apporté les résultats escomptés en terme de gestion directe du personnel et des ressources financières. C'est en tout cas ce qui ressort lors d'un entretien avec un agent de surveillance du Louvre : « Ca devait être le cas! Mais ça n'a jamais été appliqué parce qu'il y a eu des réticences. C'est quand une nouvelle direction est arrivée que le Louvre a vraiment mis en application cette autonomisation. C'est la direction Loyrette qui a donc mis l'Etablissement Public en fonction. Le précédent directeur, Rosenberg, qui était issu du monde des conservateurs du Louvre, après 30 ans de musée, a fait perdurer l'ancienne gestion. 2001 est donc également un tournant dans les modes de gestion du Louvre. » De cette remarque, on doit tirer deux enseignements. Tout d'abord, comme nous l'avons déjà dit, les 1 Cité par Vincent Noce, « Une évolution inévitable » in Libération, 12 mars 2002. Le tournant de 2002 : la « loi musée » Le tournant s'amorce en 2001. Après sa nomination au poste de président-directeur du Louvre, les prises de position d'Henri Loyrette pour l'autonomie de l'établissement jouent un rôle important. Mais elles ne sont pas isolées dans un monde muséal fixe, elles constituent plutôt la partie visible de l'iceberg. 2001 voit également un changement à la tête de la Direction des Musées de France. Françoise Cachin, directrice depuis 1994, prend sa retraite pour laisser la place à Francine MarianiDucray. Fait intéressant, c'est une diplômée de l'ENA qui remplace alors une historienne de l'art. Mais F. Mariani-Ducray est au fait des problématiques culturelles ayant été administratrice déléguée du musée du Louvre et directrice de l'administration générale du ministère de la Culture. Néanmoins c'est bien une rupture qui est pressentie comme en témoigne cet article de presse dressant un bilan élogieux des années Cachin à la Direction des Musées de France : « Quel rôle, alors, pour le nouveau patron de la DMF? La plupart des conservateurs, Guy Tosatto en tête, estiment une rupture très dangereuse. ''J'ai vécu en quinze ans pas mal de conflits - notamment des problèmes de censure - avec des élus locaux, surtout par rapport à l'art contemporain. Là, on est bien content de trouver la DMF pour nous soutenir. Si j'ai pu 272 acheter des oeuvres de Richter ou de Bruce Nauman à Rochechouart, c'est grâce à elle. La DMF doit rester un pare-feu.'' Françoise Cachin est très consciente de ce rôle d'arbitre joué par sa direction : ''Si on coupe le cordon, alors on ne pourra plus rien demander à la DMF On est encore très loin de cette situation!'' Cette dernière voit surtout poindre un risque plus large. 1» La Cinquième République connaît alors la cohabitation gouvernementale. Depuis 1997, le socialiste Lionel Jospin dirige le gouvernement dit de la « Gauche Plurielle », sous la présidence de Jacques Chirac. A partir de 2000, la ministre de la Culture est Catherine Tasca. Diplômée de l'ENA, la ministre est familière des structures culturelles de l'Etat, elle était chargée des Maisons de la Culture à la Direction des Arts et des Lettres dans le ministère Malraux. L'essentiel de sa carrière se déroule dans l'administration culturelle publique jusqu'en 1993 où elle devient conseillère d'André Rousselet à la tête de Canal Plus et présidente de Canal Horizons. La période est en effet marquée par deux rapports, le premier en 2001 de la Cour des Comptes, le second en 2002 de l'Inspection Générale de Finances. Tous deux pointent les défaillances de gestion du Louvre, notamment en dénonçant son manque d'autonomie, qui revient comme leitmotiv, et les bilans déficitaires de la Réunion des Musées Nationaux4 : 1
Michel Guerrin et Emmanuel de Roux, « Le renouveau des musées et les tentations de l'autonomie » in Le Monde, 1er février 2001. 2 Emmanuel Ratier, Au coeur du pouvoir. Enquête sur le club le plus puissant de France. 1996, Paris, Facta, 589 p. 3 Loi n° 2002-5 du 4 janvier 2002 relative aux musées de France 4 Philippe Dagen, « Henri Loyrette prépare la riposte du Louvre, mis en accusation par la Cour des comptes. » in Le Monde, 19 janvier 2002 ; Emmanuel de Roux et Jacques Follorou, « Un rapport confidentiel propose une réforme radicale des musées français. » in Le Monde, 31 janvier 2002. 273 « La Cour a constaté des carences préoccup
antes dans l'organisation des services du
m
usée et des défaillances dans l'exercice des
missions
qui lui
sont confiées. Cette situation trouve pour une large part son origine dans
le fait que
l'autonomie
accord
ée
à
l'établissement public
depuis
sa création est encore dans les faits largement fictive
. 1»
Tout semble prêt alors pour une vaste réforme du système muséal français. C'est ce qu'engage la « loi musée », même si en ce qui concerne notre objet, ce sont plutôt les décrets de création d'Etablissements Publics Administratifs qui sont significatifs. La « loi musée », quant à elle, lance le processus d'autonomisation en établissant un cadre large de définition des institutions muséales, qui ne précise aucun lien de tutelle administrative entre les établissements et le ministère de la Culture. Cette absence de tut est bien cohérente dans la mesure où la loi permet à des établissements privés d'obtenir le label « Musée de France. » Cette loi donne un nouveau cadre juridique au statut de musée sans toutefois bouleverser a priori ses missions, alors que le ministère affirme que le décret de 1945 est devenu obsolète. Elle fixe les rôles fondamentaux d'une institution muséale dans la perspective de sa définition et de l'attribution du label « Musée de France » : « Art.
| 25,171
|
19/tel.archives-ouvertes.fr-tel-00875976-document.txt_5
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 7,271
| 11,514
|
5.6.4 La courbure
En dépit de l'importance de la notion de courbure dans le domaine de l'analyse de forme, elle s'avère non adaptée à notre application. Ce descripteur fournit une aire sous la courbe ROC de valeur ACurv = 0.76. Par ailleur, d'après la figure 5.10, la courbe ROC z se détache rapidement de l'axe des ordonnées et converge rapidement vers le coin droit supérieur du cadre unitaire. Ainsi, les taux de reconnaissance des malins en tant que malins (sensibilité) et des bénins en tant que bénins (spécificité) sont faibles.
5.6. EVALUATION DES DIFFÉRENTS DESCRIPTEURS AU SEIN DU SYSTÈME DAOX
Fig. 5.9 – Courbes ROC des descripteurs issus de la mesure de la longueur radiale normalisée modifiée. Tab. 5.6 – Performance des descripteurs issus de la mesure de la longueur radiale normalisée modifiée en terme de l'aire sous la courbe ROC. 5.6.5 Descripteurs de longueur radiale modifiée Az Edif f 0.87 ± 0.01 A2 0.82 ± 0.02 σdif f 0.78 ± 0.05 ZC2 0.74 ± 0.01
Le squelette elliptique normalisé
Le squelette elliptique normalisé (ENS) dont la courbe ROC est présentée dans la figure S 5.10 fournit l'aire AEN = 0.90. Ainsi, ce descripteur est considéré comme très informatif. z Ce descripteur dont le principe de calcul est basé sur le squelette de la forme est plus pertinent que la majorité des descripteurs géométriques, de longueur radiale normalisée et de longueur radiale normalisée modifiée testés auparavant. De ce fait, la caractérisation du contour en se basant sur l'extraction du squelette s'avère une méthode prometteuse. 5.6.6 Le nombre des protubérances et des dépressions importantes
Le nombre des protubérances et de dépressions importantes (NSPD) caractérise le contour d'une façon similaire à la rugosité (R) et les points terminaux du squelette (SEP). Ces trois descripteurs fournissent à 1% près les mêmes valeurs de sensibilité et SP D de spécificité (voir figure 5.11). L'aire sous la courbe ROC AN = 0.92 fournie par le z 107 5.6.
EVALUATION DES DIFFÉRENTS DESCRIPTEURS AU SEIN DU SYSTÈME DAOX
Fig. 5.10 – Courbe ROC du descripteur courbure et du squelette elliptique normalisé. descripteur NSPD confirme la pertinence de ce descripteur (Si 0.9 6 Az < 1 : le résultat est très informatif). Ainsi,
la caractérisation du contour à travers l'extraction du nombre de dépressions et de protubérances contenues dans le contour est une mesure significative qui traduit fidèlement la malignité ou non des masses. 5.6.7 Les points terminaux d'un squelette
D'après la figure 5.11, le calcul de l'aire sous la courbe ROC de la mesure des points terminaux d'un squelette SEP fournit une valeur égale à ASEP = 0.92. D'après les résultats z obtenus précédemment, le descripteur SEP s'avère plus performant que la majorité des descripteurs déjà testés (P, Rect, M Rect, ZC1, ZC2, Curv, σdif f, A, A1, A2, Com, σ,E et EN S). En revanche, la moyenne de la longueur radiale normalisée fournit un résultat de classification légèrement supérieur (davg = 0.93). Le descripteur SEP fournit une valeur de l'aire sous la courbe ROC similaire à celle fournie par la circularité C et la rugosité R. Dans ce cas, on se base généralement, sur l'évolution de la courbe. Pour cette raison, on présente dans la figure 5.11, les trois courbes ROC correspondant aux descripteurs : les points terminaux du squelette SEP (trait continu), la rugosité R (trait en hexagones) et la circularité C (trait interrompu). On remarque bien que les deux courbes correspondant à SEP et à R sont confondues ce qui confirme qu'ils se comportent de façon similaires et qu'ils fournissent les mêmes performances en terme de reconnaissance de forme. Toutefois, ces deux courbes se détachent plus rapidement de l'axe des ordonnées par rapport à la courbe présentant le résultat de classification à base de circularité. Ce résultat prouve que la circularité est plus performante puisqu'elle est capable de fournir un meilleur compromis entre la sensibiltié et la spécificité. Le SEP et le ENS, dont le principe de calcule se base sur la détermination du squelette, fournissent des résultats de classification rapprochés. Cependant, le SEP qui est plus robuste aux changements d'échelle est plus performant S (ASEP = 0.92 > AEN = 0.90).
5.6. EVALUATION DES DIFFÉRENTS DESCRIPTEURS AU SEIN DU SYSTÈME
DAOX Fig. 5.11 – Courbes ROC des descripteurs : les points terminuax de squelette (SEP), la rugolsité (R), le nombre des protubérances et de dépressions importantes (NSPD) et la circularité (C). 5.6.8 La sélection des protubérances
Egalement, le descripteur de la sélection des protubérances P S s'avère très prometteur. Il fournit une aire sous la courbe ROC (figure 5.12) de valeur APz S = 0.93. Ce descripteur (trait continu) est de comportement similaire à celui de la moyenne de la longueur radiale normalisée davg (trait interrompu) en terme de surface sous la courbe ROC et en terme de valeurs de sensibilté et de spécificité (les deux courbes ont presque les mêmes allures). D'après l'évaluation de l'aire sous la courbe ROC détaillée dans la section 5.3.2, les deux descripteurs proposés (les points terminaux du squelette SEP ainsi que la mesure de la sélection des protubérances) s'avèrent très informatifs avec APz S > ASEP > 0.9. Par ailleurs, le descripteur PS se base sur le même principe d'exz traction des protubérances et des depressions du contour que le NSPD. En comparant SP D leur pertinence APz S = 0.93 > AN = 0.92, on remarque que le PS est légèrement plus z informatif que le NSPD n'oublions pas que sa détermination est indépendante de toute fixation de valeur de seuil (tel est la cas du NSPD). 5.6.9 Le descripteur des masses spiculées
Comme il a été évoqué dans le chapitre 4, la pertinence du descripteur des masses spiculées SMD repose sur le bon choix du pas d'angle optimum βopt qui doit être le mieux adapté à notre base. Pour cela, l'étude du descripteur SMD débute par la calcul du pas d'angle adéquat à la base considérée. La détermination de la valeur du pas d'angle optimum βopt a pour objectif d'assurer l'invariance du descripteur aux transformations géométriques (notamment la rotation) et la robustesse par rapport au bruit. On applique alors les étapes mentionnées dans la section 4.4.5 au 242 masses sélectionnées de la base DDSM. 5.6. EVALUATION DES DIFFÉRENTS DESCRIPTEURS AU SEIN DU SYSTÈME DAOX
Fig. 5.12 – Courbes ROC du descripteur PS et davg. 5.6.9.1 Calcul du pas d'angle optimum βopt
– Etape 1 : On considère la base d'images mammographiques déjà sélectionnée dans la section 5.2 constituée de Nimg = 242. On effectue 3 rotations de la base (Q = 3). L'orientation initiale de la base sans la faire pivoter correspond à la première rotation de l'angle R1 = 0◦. La base subit une deuxième rotation de l'angle R2 = 30◦ et une troisième rotation de l'angle R3 = 60◦. Ensuite, on calcule pour chaque image i, la valeur de SMD pour P pas d'angles βj allant (à priori) de 1 à 180◦ pour les trois bases obtenues après les rotations respectives R1, R2 et R3. La valeur de SMD pour ◦ ◦ ◦ chaque image i est alors notée respectivement SM Dβ0j,i, SM Dβ30j,i et SM Dβ60j,i. La figure 5.13 montre les valeurs de SMD pour 17 (P = 17) pas d'angle βj et pour les différentes rotations de la base. Nous nous sommes contenté uniquement de présenter le SMD avec un pas d'angle compris entre 1 et 90◦ car l'écart entre les différentes ◦ ◦ ◦ valeurs SM Dβ0j,i, SM Dβ30j,i et SM Dβ60j,i calculée pour un βj > 90◦ est très important ce qui exclue l'invariance du descripteur pour ces valeurs. – Etape 2 : Pour chaque angle βj ∈ {β1,β2,,β17 } et pour chaque image i ∈ {1,2,,242}, R,i on calcule l'écart entre la plus grande et la plus petite valeur de SM Dβjq. Dans notre cas, chaque élément di,j de la matrice DSM D de dimension (242 × 17), contenant ces valeurs d'écart s'écrit de la façon suivante :
◦ di,j = ◦ ◦ ◦ ◦ ◦ max{SM Dβ0j,i,SM Dβ30j,i,SM Dβ60j,i } − min{SM Dβ0j,i,SM Dβ30j,i,SM Dβ60j,i } 3
(
5.3
) – Etape 3 : La matrice ASM D de dimension (242 × 17) est constituée de 0 et de 1. Les 1 permettent d'identifier les pas d'angle correspondant au minimum de variation entre les SMD et par conséquence le maximum d'invariance en pivotant les images. ◦ ◦ Fig. 5.14 – B(βj ) : histogramme de la variation minimale entre SM Dβ0j, SM Dβ30j et ◦ SM Dβ60j. 5.6.9.2 Evaluation de l'angle de rotation
Le choix du pas d'angle optimum (βopt = 10◦ ) est basé essentiellement sur le critère d'invariance par rotation. On cherche à vérifier l'influence du choix de cet angle sur le résultat final de classification. Dans ce contexte, on calcule l'aire sous la courbe ROC pour différentes valeurs de βopt. La figure 5.15 montre les différentes valeurs de l'aire sous la courbe ROC (Az ) pour différents pas d'angles allant de 0◦ à 90◦. On remarque bien que pour des valeurs de β supérieures à 20◦, la valeur de Az chute d'une façon remarquable allant de Az = 0.9585 à Az = 0.9217. En effet, plus le pas d'angle est grand, plus on néglige les variations du contour dans certaines directions ce qui explique la baisse de la performance de classification du descripteur. Les meilleures valeurs de l'aire sous la courbe ROC (Az > 0.96 sont obtenues pour des pas d'angles allant de 6◦ à 16◦. D'après le calcul fait dans la section précédente et la figure 5.14, entre β = 9◦ et β = 14◦, on obtient un résultat d'invariance satisfaisant. Les deux résultats se complèmentent et montrent l'influence de l'invariance par rotation sur le résultat final de classification. Pour conclure, le meilleur résultat correspondant à la plus grande valeur de Az = 0.97 est obtenu pour le pas d'angle β = 10◦. Ces tests confirment les calculs élaborés dans la section 5.6.9.1. De ce fait, on retient la valeur βopt = 10◦ pour la calcul final de SMD étant donné qu'elle fournit le meilleur résultat de classification tout en assurant le maximum d'invariance. 5.6. EVALUATION DES DIFFÉRENTS DESCRIPTEURS AU SEIN DU SYSTÈME DAOX
Fig. 5.15 – Influence du choix du pas d'angle sur la valeur de Az. 5.6.9.3 Résultat de classification de SMD
Le descripteur des masses spiculées SMD est très prometteur. Il fournit le meilleur résultat de classification avec une aire sous la courbe ROC de valeur Az = 0.97. La figure 5.16, prouve la performance de SMD. La courbe ROC grimpe rapidement d'une façon presque asymptotique vers le coté supérieur gauche du cadre unitaire couvrant ainsi presque la totalité de l'espace. Comme il est déjà évoqué dans le chapitre précédent, ce descripteur, réunit l'invariance par rapport aux transformations géométriques, ainsi que la robustesse par rapport au bruit. Ceci est dû au soin consacré au calcul du pas d'angle βopt ce qui offre au descripteur sa pertinence et sa précision.
Fig. 5.16 – Courbe ROC du descripteur SMD. 113
5.7. DISCUSSION
5.7 Discussion Afin de faciliter l'interprétation des résultats et la comparaison des différents descripteurs, on a récapitulé les différentes aires sous les courbes ROC dans le tableau 5.7 et la figure 5.21. Les descripteurs d'ordre général comme le périmètre, l'aire et la compacité utilisés individuellement s'avèrent peu ou moyennement efficaces. Ce résultat s'explique par le fait que l'information apportée par ces descripteurs soit insuffisante pour décrire des formes complexes telles que les masses mammaires. A titre d'exemple, les mesures de l'aire A et du périmètre P sont supposées croı̂tre en fonction de la complexité de la forme. Néanmoins, les deux exemples présentés dans la figure 5.17 prouvent que ces mesures dépendent du facteur échelle. En effet, l'aire et le périmètre d'une masse régulière de taille importante (figure 5.17 a) peuvent dépasser l'aire et le périmètre d'une masse irrégulière de petite taille (figure 5.17 b). a) b) Fig. 5.17 – Dépendance des mesures de l'aire et du périmètre du facteur d'échelle.
En ce qui concerne la mesure de compacité, on a choisi les deux exemples présentés dans la figure 5.18 a) et b) pour prouver l'insuffisance de ce descripteur à décrire correctement les formes. Ces deux formes, perceptuellement très différentes, ont la même valeur 2 de compacité (Com = 209 ). Dans ce cas, la mesure d'excentricité (section 3.3.1.9) est beaucoup plus adaptée. 2a a a 9a a) Com = 202 9 b) Com = 202 9
Fig. 5.18 – Insuffisance de certains descripteurs d'ordre général tels que l'éxcentricité et la compacité à décrire une forme. 5.7. DISCUSSION
Afin de montrer l'importance de l'effet d'invariance par rotation, on a comparé les deux descripteurs : la rectangularité Rect et la rectangularité modifiée M Rect. En effet, la valeur de rectangularité d'un rectangle parfait et droit est égale à 1 alors que la rectangularité de ce même rectangle d'orientation autre que l'horizontale et la verticale est différente de 1. Ainsi, ce descripteur est sensible à la rotation. La considération de l'invariance par rotation dans la formulation de ce descripteur améliore le résultat de classification de Rect façon nette en passant de la valeur ARect = 0.71 à AM = 0.83. z z Même si ces descripteurs géométriques sont insuffisants pour décire la globalité des informations contenues dans une forme, ils demeurent toujours utiles pour apporter quelques détails supplémentaires concernant la forme en question. Plusieurs travaux de recherche ont montré que l'utilisation de ces descripteurs combinés avec d'autres plus adaptés permet généralement d'améliorer la caractérisation des formes (Cheikhrouhou et al., 2009). Les résultats obtenus avec les descripteurs de longueur radiale normalisée LRN proposés par (Kilday et al., 1993) sont très variés. En effet, on trouve des descripteurs peu satisfaisants (Az < 0.8) comme c'est le cas du taux de croisement en zéro ZC1, des résultats moyennement satisfaisants (0.8 < Az < 0.9) tels que le rapport de surface A1, la déviation standard de la longueur radiale normalisée σ et l'entropie E et des résultats plus satisfaisants tels que la rugosité R et la moyenne de la longueur radiale normalisée davg (Az > 0.9). Des travaux antérieurs et récents confirment ce résultat. Les auteurs dans (Tsui et al., 2010), ont étudié plusieurs descripteurs de forme dans le cadre de la classification des masses mammaires en bénignes et malignes en se basant sur la description du contour. Pour cet effet, ils ont comparé la performance de six descripteurs caractérisant le contour des masses mammaires dans le cas de 60 images échographiques du sein. Parmi ces descripteurs, ils ont étudié le rapport de surface, la déviation standard, la rugosité et la circularité. Selon cette étude, les aires sous les différentes courbes ROC C 1 sont : AA = 0.537, Aσz = 0.537, AR z z = 0.662 et Az = 0.791. Ce résultat obtenu dans des circonstances différentes de celles de notre étude (autre base, autre type d'images,) mais pour la même application (la caractérisation des masses mammaires), prouve que ces descripteurs ont conservé en globalité le même ordre de performance. En effet, pareillement à notre cas de comparaison, les auteurs dans (Tsui et al., 2010) ont confirmé que le rapport de surface fournit le résultat le moins satisfaisant. La rugosité fournit un résultat moyennement acceptable alors que la circularité demeure la plus performante. Les descripteurs extraits à partir de la longueur radiale normalisée modifiée (LRN M ) (excepté le taux de croisement en zéro modifié (ZC2 ) n'apportent pas une amélioration du résultat de classification par rapport aux descripteurs à base de la longueur radiale normalisée standard. Cependant, ils fournissent des résultats moyennement satisfaisants (0.74 < Az < 0.87). La détermination de l'ensemble des descripteurs de longueur radiale normalisée et de longueur radiale normalisée modifiée repose essentiellement sur la distance entre le contour et le centre de gravité. Dans le cas de formes régulières, le calcul de cette distance est simple et ne porte pas d'ambiguı̈té. Dans le cas de formes complexes telles que le cas des masses malignes, le centre de gravité peut se situer en dehors de la région de la tumeur. Ainsi, il n'est plus valable pour le calcul des distances radiales. A titre d'exemple, la lésion présentée dans la figure 5.19 a), a un centre de gravité qui déborde de la région de la lésion. Toutefois, puisque la longueur radiale normalisée est
DISCUSSION
a) b) Fig. 5.19 – Exemple de centre de gravité hors la région de la masse. calculée en distance Euclidienne (entre le centre de gravité de l'objet et le
ieme pixel du contour), les lésions présentées respectivement dans la figure 5.19 a) et la figure 5.19 b) (qui sont différentes) ont la même longueur radiale. Par conséquent, la détermination de la mesure de la longueur radiale standard et modifiée est fortement liée à la convexité de la lésion et par la suite à la position du centre de gravité. Le descripteur nommé le squelette elliptique normalisé (ENS), basé sur le squelette d'une forme, fournit une caractérisation satisfaisante des masses mammaires. Mais, comme il a été démontré dans la section 4.2.4.3, la normalisation par rapport à l'ellipse équivalente est insuffisante pour assurer l'invariance par homothétie. a) b) Fig. 5.20 – Sensibilité du squelettisation au moindre perturbation dans le contour : a) Squelette d'un rectangle et b) Changement du squelette d'un rectangle présentant une encoche. Le descripteur décri
vant
le nombre des protubérances et des dépressions importantes (NSPD)
est aussi efficace. En effet, la considération du squelette ou bien des protubérances induit la caractérisation du taux d'irrégularité du contour ce qui est l'information de base concernant la malignité. Toutefois, il est à noter que la détermination de ce descripteur dépend essentiellement de l'ajustement d'un certain seuil θi (voir section 3.3.2.1). De façon 116 5.7. DISCUSSION que le changement de ce seuil implique ou bien la négligence de certaines protubérances et dépressions ou bien la considération d'un certain bruit. La proposition du descripteur PS est basée sur le même principe d'extraction de dépressions et de protubérances sans avoir recours à un ajustement de seuillage. L'usage d'une méthode indépendante d'un seuillage améliore le résultat de caractérisation de manière que l'aire sous la courbe ROC SP D est passée de AN = 0.92 à APz S = 0.93. Ajoutant que ces deux descripteurs présentent z l'avantage d'être invariants aux différentes transformations géométriques. Il est vrai qu'on a pu neutraliser la sensibilité de ce descripteur par rapport au bruit par un lissage du contour, mais il reste à signaler que le lissage n'est pas standard pour toutes les formes. Dans l'objectif d'acquérir un descripteur à la fois plus robuste au bruit, invariant aux transformations géométriques et fidèle à la caractérisation des formes, on a proposé le descripteur des masses spiculées SMD. D'après le tableau 5.7 et la figure 5.21, le descripteur des masses spiculées SMD s'avère le plus performant. La détermination de sa valeur est fortement liée au nombre de spicules et leur longueur. D'une part, plus le nombre de spicules est important, plus la droite active ∆ (se rapporter à la section 4.4.2) intercepte davantage le contour de la lésion et d'autre part, dès qu'une spiculation apparait ou disparait, un nouvel élément s'ajoute au vecteur de variation du modèle T. La robustesse du descripteur réside en sa capacité à conserver tous les détails concernant les spiculations. Par ailleurs, la détermination du pas d'angle de rotation optimum sert simultanément à assurer l'invariance par rotation et à considérer les variations réelles de la forme sans être influencé par le bruit. Fig. 5.21 – Récapitulatif des performances des différents descripteurs. 117
5.8. CONCLUSION
Tab. 5.7 – Performance décroissante des différents descripteurs en terme de l'aire sous la courbe ROC. 5.8 Les différents descripteurs
Az SM D 0.97 ± 0.01 PS 0.93 ± 0.004 davg 0.93 ± 0.01 SEP 0.92 ± 0.02 N SP D 0.92 ± 0.01 C 0.92 ± 0.02 R 0.92 ± 0.002 EN S 0.90 ± 0.001 E 0.89 ± 0.03 σ 0.87 ± 0.04 Edif f 0.87 ± 0.01 A1 0.86 ± 0.01 Com 0.84 ± 0.03 M Rect 0.83 ± 0.01 A2 0.82 ± 0.02 A 0.81 ± 0.02 σdif f 0.78 ± 0.05 Curv 0.76 ± 0.003 ZC2 0.74 ± 0.01 ZC1 0.72 ± 0.03 Rect 0.71 ± 0.01 P 0.67 ± 0.06
Conclusion Une étude comparative entre différents descripteurs de natures différentes a été menée afin d'évaluer leur robustesse et notamment la robustesse des trois descripteurs proposés. Cette étude réalisée dans le cadre d'un système d'aide au diagnostic a nécessité l'utilisation d'une base de données mammographiques connue la DDSM, aini que la segmentation des lésions à analyser, ensuite l'application de quinze descripteurs couramment utilisés dans la littérature et finalement le recours à une étude comparative entre trois classifieurs : la 118 5.8. CONCLUSION régression logistique (RL), les réseaux de neurones à fonctions de base radiales (RBF) et les séparateurs à vaste marge (SVM). Les résultats expérimentaux ont prouvé que les descripteurs d'ordre général ne sont pas toujours fiables surtout lorsqu'ils sont testés individuellement. Néanmoins, leur association à d'autres descripteurs de forme améliore souvent les résultats de classification. Les descripteurs de longueur radiale normalisée fournissent une large gamme de résultat de sorte que certains sont plus pertinents que d'autres. N'oublions pas que ces descripteurs dépendent de la distance entre le centre de gravité et le contour de telle sorte qu' ne soient pas adaptés aux formes très complexes. Les descripteurs proposés ont prouvé une capacité satisfaisante à caractériser les masses mammaires. Les descripteurs SEP et PS fournissent des résultats semblables avec des ASEP = 0.92 et APz S = 0.93. Le descripteur des masses spiculées SMD se distingue par la z D = 0.97 la plus élevée. valeur d'aire sous la courbe ROC ASM z 119
Conclusion générale et perspectives
Dans ce travail de thèse, on s'est intéressé à l'étude des systèmes automatiques de diagnostic assistés par ordinateur en vue du diagnostic du cancer du sein, notamment à la description et à la classification des masses mammaires. En effet, les statistiques confirment que le cancer du sein représente une menace prépondérante pour la vie de la femme. Cependant, une telle menace n'est gérée que par la prise en charge rapide de la maladie pour maximiser les chances de survie. D'où, le recours au moyen informatique automatisant la procédure de diagnostic appelé: le Diagnostic Assisté par Ordinateur (DAOx). Cette procédure permet d'assister les radiologues dans l'analyse des mammographies dont le nombre ne cesse de croı̂tre ces dernières décennies. Mener à bien ce travail de recherche a nécessité tout d'abord la maı̂trise de certaines connaissances dans le domaine du cancer du sein. Nous avons, alors, étudié de près l'anatomie du sein, sa corrélation avec les images mammographiques, les différentes pathologies mammaires (les masses et les microcalcifications) ainsi que leur classification en fonction de leur degré de suspicion (tel qu'il est désigné par le protocole standardisé BIRADS). Les chercheurs dans le domaine de l'image se focalisent sur différentes étapes de la chaı̂ne du diagnostic assisté par ordinateur afin d'améliorer le résultat de classification des masses en malignes/bénignes. Un état de l'art détaillé concernant les étapes d'une chaı̂ne de diagnostic assisté par ordinateur est réalisé afin de réussir la description et la classification des masses mammaires. Dans ce contexte, une étude concernant les outils ainsi que l'utilité du prétraitement des images mammographiques est réalisée. Cette étude a permis de conclure que le rehaussement des images contenant des masses (contrairement aux images contenant des microcalcifications) cause une amplification du bruit et par la suite la distorsion des lésions. Pour cette raison, la partie de prétraitement des masses n'est pas prise en compte dans ce travail. Dans l' bjectif d'analyser la forme des masses, une étape d'extraction du contour appelée segmentation s'impose. De nombreuses techniques de segmentation sont abordées dans cette thèse. Elles sont classées en trois types d'approches à savoir: les approches basées pixel, contour et région. La comparaison des résultats de segmentation des différentes méthodes présentés dans les travaux récents a permis d'adopter la méthode du ≪level set ≫ basée sur la minimisation de l'énergie de la région évolutive. Ce modèle s'avère capable de segmenter des images ayant diverses intensités inhomogènes. L'application de cette méthode a fourni des résultats de segmentation très satisfaisants. Une étape de description des formes obtenues à partir de l'étape de segmentation est nécessaire. Une telle étape de caractérisation des masses est très délicate. En effet, la considération d'une lésion maligne en tant que bénigne pose un vrai problème CONCLUSION GÉNÉRALE ET PERSPECTIVES puisque la patiente réellement atteinte d'un cancer n'aura pas le traitement nécessaire pour maximiser ses chances de survie. En revanche, considérer une lésion bénigne en tant que maligne fait croı̂tre le taux des biopsies inutiles, sans oublier l'impact psychologique de telle information sur la patiente. D'où, l'importance de l'usage de descripteurs adaptés aux caractères pathologiques des masses mammaires. Une étude des différents descripteurs proposés dans la littérature est menée. Nous avons étudié différents descripteurs de texture tels que la matrice de co-occurrence et la dimension fractale. Les recherches antérieures ont montré que ces descripteurs sont plus adaptés à la nature des lésions de type microcalcifications alors que les descripteurs de forme sont plus appropriés pour l'analyse des masses mammaires. Les travaux réalisés dans ce domaine se focalisent sur la mesure de rugosité de manières différentes afin de caractériser le contour des masses. On a évalué les performances de différentes méthodes appliquées en mammographie. Il en ressort que les descripteurs utilisés présentent certaines lacunes telles que: - la dépendance à la convexité de la forme, - la sensibilité au seuillage choisi, - la sensibilité au bruit, - la déscription de la forme de manière très globale, - la non invariance aux transformations géométriques. Dans ce contexte, nous avons proposé trois descripteurs de forme à savoir ≪les points terminaux d'un squelette ≫ (SEP), ≪la sélection des protubérances ≫ (PS) et ≪le descripteur des masses spiculées ≫ (SMD). Le choix de ces descripteurs est basé sur les raisons suivantes: - Un descripteur é sur le squelette d'une forme est antérieurement proposé. Il s'agit du squelette elliptique normalisé (ENS) qui est sensible aux transformations d'échelle. Concernant le descripteur (SEP), ses points forts sont: sa capacité à caractériser la complexité du contour et son invariance aux transformations géométriques telles que la translation, la rotation et l'homothétie. Cependant, il reste sensible au bruit. - D'après la littérature, il a été proposé de décrire le contour des masses par le descripteur intitulé ≪le nombre des protubérances et des dépressions les plus importantes du contour ≫ noté par (NSPD). La détermination du taux d'irrégularité à travers ce nombre est une méthode très intéressante étant donné que pour les masses malignes (qui sont généralement plus irrégulières) la valeur correspondante du descripteur est plus élevée. Toutefois, ce calcul dépend essentiellement d'un certain seuillage. Le choix d'une valeur importante du seuil entraı̂ne la négligence d'un nombre important de protubérances et de dépressions, d'où l'imprécision du résultat trouvé. Par contre, le choix d'une petite valeur du seuil est très coûteuse en temps de calcul. Nous proposons, alors, de détecter différemment le nombre de protubérances en étudiant la variation de signe de la dérivée première avant et après les points stationnaires. Cette méthode nous permet d'extraire les petites ainsi que les grandes protubérances du contour. Ce descripteur intitulé ≪sélection des protubérances ≫ (PS) permet d'obtenir des résultats de classification très satisfaisant. N'oublions pas qu'il a l'avantage d'être invariant aux différentes transformations géométriques et d'être invariant au bruit grâce au lissage effectué sur le contour avant tout traitement. Cependant, un lissage avancé du contour peut faire disparaı̂tre certaines spiculations alors qu'un lissage peu avancé peut préserver certains bruits. - Les deux descripteurs proposés s'avèrent très prometteurs puisqu'ils sont d'une part invariants aux transformations géométriques et d'autre part parviennent à caractériser correctement la complexité du contour. Cependant, les points terminaux du squelette (SEP) et la sélection des protubérances (PS) sont sensibles au bruit et dépendent du taux de lissage du contour. Par conséquent, il est nécessaire de chercher un descripteur caractérisant le contour, invariant et indépendant du bruit. Nous proposons alors un quatrième descripteur intitulé ≪descripteur des masses spiculées ≫ (SMD) basé sur une étude approfondie de l'évolution contour. Pour celà, on fait déplacer en mouvement de translation et de rotation une droite active bien spécifique. Le principe de cette étude est de désigner la fréquence d'intersection entre la droite active considérée et la lésion. Cette procédure qui suit progressivement le comportement du contour permet de caractériser simultanément le nombre, la profondeur et la largeur des spiculations mammaires. Une étude détaillée a été menée afin de permettre à cet angle de préserver d'une part l'invariance du descripteur aux transformations géométriques et d'autre part l'invariance par rapport au bruit ou toute légère transformation du contour. Pareillement aux autres propositions, le SMD parvient à différencier entre les différentes formes de masses de façon que les masses les plus complexes fournissent des valeurs plus élevées. Dans l'objectif d'assurer les meilleures conditions de comparaison de différents descripteurs, une étude analytique de différentes méthodes de classification reconnues en mammographies nous a mené à comparer trois classifieurs à savoir: les machines à vecteurs de support(SVM), les réseaux de neurones à fonctions de base radiales (RBF) et la régression logistique (RL). Cette comparaison a été réalisée dans le cadre de plusieurs systèmes de diagnostic assisté par ordinateur en se basant sur quatre descripteurs et en testant les trois classifieurs cités auparavant. L'étude comparative a prouvé que le classifieur SVM est le plus adapté à notre application DAOx. Il fournit des résultats de classification plus satisfaisants pour les différents descripteurs testés. Finalement, une étude comparative entre différents descripteurs couramment utilisés pour le traitement des masses mammaires a été menée afin d'évaluer leur robustesse et de les comparer aux trois descripteurs proposés dans ce travail. Ces derniers ont prouvé une capacité satisfaisante à caractériser les masses mammaires. En effet, ils fournissent des valeurs de l'aire sous la courbe ROC supérieures à Az = 0.92 ce qui est en pratique un résultat très significatif. Les résultats de classification des points terminaux du squelette (SEP ) sont similaires à ceux fournis par la rugosité (R) et la circularité (C) avec Az = 0.92. La sélection des protubérances (P S) et la moyenne de la longueur radiale normalisée (davg ) fournissent les mêmes performances de caractérisation des lésions avec Az = 0.93. Alors que le descripteur des masses spiculées SM D se distingue par le meilleur résultat de classification avec Az = 0.97 ce qui est du à sa robustesse au bruit, aux divers transformations géométriques et à sa capacit à traduire analytiquement les différents détails du contour. Les perspectives que nous envisageons dans le prolongement de ce travail de thèse s'articulent autour des points suivants:
CONCLUSION GÉNÉRALE ET PERSPECTIVES Etude locale de la texture
L'étude bibliographique réalisée dans le chapitre 3 prouve l'importance de la description de forme par rapport à la description de texture dans le cas de l'étude des masses mammaires. Cependant, il est envisageable d'associer aux descripteurs de forme proposés une étude locale de la texture au niveau du contour afin d'analyser de manière détaillée le taux de spiculation du contour. Une telle étude est d'une utilité considérable pour les radiologues. Enrichissement de la description
Les travaux antérieurs montrent l'efficacité de la description de forme par rapport à celle de texture dans le cadre du traitement des masses mammaires. Cependant, d'autres travaux prouvent l'intérêt de l'association des deux types de description. Comme perspective, nous pensons combiner des descripteurs de nature différentes afin d'enrichir davantage la description des images mammographiques. Pour ce faire nous envisageons de combiner les descripteurs suivants: – le descripteur des masses spiculées (SMD) qui est très efficace de point de vue robustesse au bruit, invariance aux transformations géométriques et caractérisation des masses mammaires. – la sélection des protubérances (PS) et les points terminaux du squelette (SEP) qui sont réellement sensibles au bruit. Une solution proposée est de lisser le contour. Cette solution doit être analysée soigneusement afin d'étudier l'influence du taux de lissage sur premièrement le taux de caractérisation du contour et deuxièmement le taux de sensibilité au bruit. – des descripteurs de texture qui sont souvent utilisés pour la classification des masses mammaires. – des descripteurs qualitatifs tels que l'âge, le tabagisme, les traitements hormonaux qui représentent des facteurs risque favorisant le développement du cancer du sein. En effet, de tels descripteurs sont insuffisants une fois considérés seuls. Cependant, ils sont très informatifs lorsqu'ils sont associés à d'autres descripteurs quantitatifs comme les descripteurs de forme et de texture. Il est possible d'avoir recours à des méthodes de sélection des descripteurs les plus pertinents (telles que l'analyse en composantes principales, les algorithmes génétiques, la discrimination linéaire de Fisher, la régression logistique) afin d'éviter l'association de descripteurs dépendants qui peuvent alt le résultat de classification. Une telle étude concernant les différentes méthodes de caractérisation peut servir de référence pour les traiteurs d'image dans le domaine du cancer du sein. Intégration des descripteurs proposés dans d'autres applications
La conception des descripteurs de forme proposés est fortement liée à la régularité (ou non) de la forme à étudier. Les tests réalisés sur la base DDSM, reconnue dans le domaine du cancer du sein, ont prouvé la pertinence des descripteurs proposés, leur robustesse par rapport au bruit et l'importance de leur invariance aux transformations géométriques telles que la translation, l'échelle et la rotation. Un tel succès nous suscite à tester ces descripteurs dans d'autres domaines d'application de l'imagerie. A titre d'exemple, et dans le même contexte médical, le mélanome représente une forme de cancer de la peau, la plus rare mais la plus grave également. Le caractère pathologique de la maladie dépend essentiellement de l'irrégularité de la forme du mélanome formé. D'où, les descripteurs proposés sont considérés comme candidats appropriés pour caractériser convenablement la forme des mélanomes à dépister. Par ailleurs, dans le contexte de l'interprétation météorologique de l'imagerie satellitaire, la description automatique et précise de forme est très recherchée. En effet, cette description permet d'assister l'évolution des masses nuageuses afin de prévoir les cyclones et les ouragans. La conception de méthodes automatiques de prédiction du temps ou de suivi de tempêtes est à considérer afin d'aider les experts en météorologie. Annexes Annexe A Les réseaux de neurones à fonctions de base radiales (RBF)
Le réseau à ≪Fonctions de Base Radiales ≫ connu sous l'abréviation RBF (Radial Basis Functions) fait partie des réseaux de neurones supervisés les plus connus (Powell, 1985). Il est généralement utilisé dans des problèmes d'interpolation ou pour la classification. Ce réseau est constitué de trois couches: une couche d'entrée qui contient les descripteurs (ou les caractéristiques en général), une seule couche cachée qui contient les unités (neurones) RBF (qui sont généralement des gaussiennes) et une couche de sortie. Fig. 5.22 – La distribution gaussienne d'une fonction de base radiale de moyenne nulle C = 0 et de déviation standard σ = 30.
Une fonction de base radiale (RBF) est une fonction Ri symétrique autour d'un centre Ci. On considère P ∈ Rr le vecteur d'entrée et Ci ∈ Rr,(1 ≤ i ≤ u) le prototype des vecteurs d'entrée. La sortie de chaque unité RBF est: Ri (P ) = Ri (kP − Ci k) i = {1,u} (5.4) avec k.k désigne une norme. Généralement, la fonction Guassienne (RBF avec la norme Euclidienne) est préférée parmi les fonctions à base radiale possibles étant donné qu'elle ANNEXES est factorisable (la figure représente un exemple de distribution gaussienne avec C = 0 et σ = 30). D'où, l'équation précédante s'écrit: Ri (P ) = exp[− kP − Ci k2 ] σi2 (5.5) avec σi est la largeur de la ième unité RBF. La j ème sortie yj (P ) du réseau de neurones RBF est: yj (P ) = u X Ri (P ).w(j,i) (5.6) i=1 avec w(j,i) est le poids de la ième sortie et R0 = 1. La performance d'un classifieur RBF est fortement liée à la séparabilité des classes dans l'espace de dimension u généré par la transformation non linéaire réalisée par les u unités RBF (Er et al., 2002). Dans notre cas d'étude, on procède ainsi: 1. Initialement, le nombre d'unités RBF est considéré égal à celui des unités de sorties (u = s) de façon que chaque classe ait seulement un cluster. 2. Pour chaque unité k = 1,2,,u, le centre représent e la valeur moyenne des échantillons appartenant à la classe k (Pik est le ième échantillon appartenant à la classe k et nk est le nombre total des échantillons d'apprentissage dans la classe k): k n 1 X k k P C = k n i=1 i (5.7) 3. Pour chaque classe k, on calcule la distance Euclidienne dk entre la moyenne C k au point le plus loin pk (f ) appartenant à la classe k: dk = kP k (f ) − C k k (5.8) 4. Annexe B La Régression Logistique (RL)
Le modèle de ≪Régression Logistique ≫ (RL) a pour but de modéliser les probabilités à postériori de chaque classe. Comme son nom l'indique (logistique), ce modèle est régi par la fonction logit définie par: logit(P ) = log( P ) avec P ∈]0,1[ 1−P (5.11) Le modèle de régression logistique est un modèle multivariable qui permet d'exprimer sous forme de probabilité (ou de risque) la relation entre une variable Y dichotomique (dépendante) et une ou plusieurs variables (indépendantes) Xi, qui peuvent être qualitatives ou quantitatives. – Y caractérise la maladie (Présence/Absence, Malade/Non malade, ). Dans notre cas, Y=1 représente une lésion maligne et Y=0 représente une lésion bénigne. – Les Xi caractérisent les i facteurs de risque de la maladie. Dans notre cas, les Xi représentent les descripteurs permettant de définir la forme de la lésion. On peut étendre le modèle de régression logistique à plus que deux classes. Il s'agit, dans ce cas, de régression logistique multinomiale. On représente les classes de sortie par: Y = [Y (1),Y (2),,Y (m) ]T de telle sorte que Y i = 1 lorsque X correspond à un exemple appartenant à la classe i et Y i = 0 autrement. Les n échantillons d'apprentissage peuvent être représentés par l'ensemble D = (X1,Y1 ),,(Xn,Yn ). Dans le cas de régression logistique multinomiale, la probabilité que X appartienne à la classe i s'écrit ainsi: exp(βiT x) P (Y (i) = 1|X = x) = Pm T j=1 exp(βj x) (5.12) avec m le nombre de classes, i ∈ {1,,m}, βi est le vecteur poids qui correspond à la classe i et T désigne la transposée du vecteur. Pour les problèmes à deux classes (m = 2), le modèle prend la forme suivante:
P (Y = 1|X = x) = exp(β0 + β1.x1 + + βk xk ) 1 + exp(β0 + β1.x1 + + βk xk ) (5.13) P (Y = 0|X = x) = 1 1 + exp(β0 + β1.x1 + + βk xk ) (5.14)
et On peut reformuler ces deux équations de la façon suivante:
log( P (Y = 1|X = x) ) = β0 + β1.x1 + + βk xk P (Y = 0|X = x 130 (5.15)
ANNEXES
Trouver la meilleure classification en utilisant la régression logistique revient, en effet, à trouver les bons paramètres β0,β1,,βk qui vérifient les probabilités P (Y = 1|X = x) et P (Y = 0|X = x). L'estimation des paramètres βi est généralement assurée par le maximum de vraisemblance. Dans le cas général (multiclasse) cette maximisation fait appel à des procédures itératives de minimisations comme la méthode de Newton ou Nelder-Mead. Dans le cas de la régression logistique (binaire), il existe plusieurs méthodes pour le calcul du maximum de vraisemblance, parmi les méthodes les plus efficaces selon l'étude menée dans (Minka, 2003), on cite la méthode de Newton Rophson (McCullagh and Nelder, 1989) connue sous le nom de IRLS (Iterative Reweighted Least Squares). Dans ce cas, le logarithme de la vraisemblance s'écrit: L(β) = N X log(P (Y = gi |X = xi ) (5.16) i=0 autrement L(β) = N X i=0 ( T exp
(
β xi ) log( 1+exp(β T x ), i 1 log( 1+exp(β T xi ), gi = 1 gi = 0 (5.17) avec β = [β0,β1,βk ]T et x = [1,x1,,xk ]T. Pour maximiser la log-vraisemblance, on met à zéro ses dérivées: N ∂L(β) X xi (1 − P (xi ), gi = 1 (5.18) = −xi P (xi ), gi = 0 ∂β i=0 On a P (xi ) = P (Y = 1|X = xi ), et P (Y = 0|X = xi ) = 1 − P (Y = 1|X = xi ) On ne peut pas résoudre directement cette équation et trouver explicitement l'expression de β. Toutefois, on peut utiliser un algorithme itératif issu de la procédure de Newton-Raphson. Annexe C Les séparateurs à vaste marge (SVM)
Les ≪séparateurs à vaste marge ≫ (Support Vector Machines) SVM est une méthode de classification binaire par apprentissage supervisé, elle fut introduite par Vapnik (Vapnik, 1999) en 1995. Cette méthode repose sur l'existence d'un classifieur linéaire dans un espace approprié. Puisque c'est un problème de classification à deux classes, cette méthode fait appel à un jeu de données d'apprentissage pour apprendre les paramètres du modèle. Elle est basée sur l'utilisation de fonctions dites noyaux (kernel) qui permettent une séparation optimale des données. Pour deux classes données, le but du SVM est de trouver un classifieur qui va séparer les données et maximiser la distance entre ces deux classes, ce classifieur est appelé hyperplan. Il existe une multitude d'hyperplans séparant les deux classes, mais on retient l'hyperplan dont la distance minimale aux exemples d'apprentissage est maximale, on appelle cette distance marge. Les points les plus rapprochés utilisés pour la détermination de l'hyperplan sont appelés les vecteurs de support. Il existe deux cas de modèles SVM: les cas linéairement séparables et les cas nonlinéairement séparables. Les premiers sont les plus simples, car ils permettent de trouver facilement le classifieur linéaire. Ce modèle est utilisé dans le cas où les images d'apprentissage appartenant aux deux classes peuvent êtres complètement séparables. L'exemple illustré dans la figure 5.23 a) représente un modèle de classification linéaire où l'hyperplan utilisé est une droite. Il s'agit, dans ce cas, d'une comparaison entre les images à travers un simple produit scalaire. Soient NIm le nombre d'images d'apprentissage, X = [x1,x2 ,,xi,,xNIm ] les descripteurs et Y = [y1,y2,,yi,,yNIm ] l'ensemble de leurs étiquettes. Notons que toutes les étiquettes yi appartiennent à l'ensemble {-1,1} (classification binaire). A partir de l'examination des couples d'entrée-sortie (xi,yi ); i = {1,2,,NIm }, le but est de trouver une fonction f : X → Y, telle que la probabilité P (f (X) 6= Y ) soit minimale. Dans le cas linéaire, la fonction de décision SVM est la suivante: f (x) = N Im X αi yi x.xi + b (5.21) i=1 avec: - x est un vecteur support - xi sont les observations des différentes images d'apprentissage. (5.22) Card(H) > Card(F)
Dans le cas non-linéaire, la fonction de décision SVM devient: f (x) = N Im X αi yi K(x,xi ) + b (5.23) i=1 Les fonctions noyaux peuvent avoir plusieurs formes. Les noyaux les plus utilisés sont le noyau polynômial, sigmoı̂dal, lapalcien et gaussien. On utilise dans ce qui suit le noyau 133 ANNEXES gaussien de la forme suivante: Gaussien: K(x,xi ) = e− kx−xi k2 2σ 2 (5.24) Plusieurs tests qui se distinguent par le choix des paramètres σ du noyan gaussien et le terme de régularisation de marge du SVM (C) sont réalisés. Ces tests ont permis de retenir les paramètres optimaux σopt = 5 et Copt = 100 qui fournissent la meilleure séparation entre les classes et par la suite le meilleur résultat de classification..
| 36,481
|
tel-04298248-FERNANDEZ_Matthieu_2015_these.txt_6
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,023
|
Les images dans les Harangues et les Plaidoyers politiques de Démosthène : de la communication politique à la littérature. Linguistique. Université Paris-Sorbonne - Paris IV, 2015. Français. ⟨NNT : 2015PA040157⟩. ⟨tel-04298248⟩
|
None
|
French
|
Spoken
| 7,041
| 13,793
|
6) L’orage Démosthène utilise en effet à plusieurs reprises la métaphore de l’orage : 15. Τὸ γὰρ πρᾶγμ’ ὁρῶ προβαῖνον, καὶ οὐχὶ βουλοίμην ἂν εἰκάζειν ὀρθῶς, φοβοῦμαι δὲ μὴ λίαν ἐγγὺς ᾖ τοῦτ’ ἤδη. (...) Ἕως οὖν ἔτι μέλλει καὶ συνίσταται τὰ πράγματα καὶ κατακούομεν ἀλλήλων...283 279 Respectivement, Amb., 245, et Cour., 308. Cf. Démosthène, Amb., 216 et 337-40 ; Cour., 23, 259, 280, 285, 287, 291 et 313. Pour plus de détails sur la critique entre le style oratoire d’Eschine et sa carrière d’acteur, cf. ci-dessous, p. 206-207, avec les n. 833 et 839. 281 Cf. Homère, Odyssée, V, 317, qui s’inscrit dans la description de la tempête, soulevant les flots, que Poséidon déchaîne contre Ulysse alors que celui-ci navigue sur le radeau qu’il s’est construit durant son séjour sur l’île de Calypso, et dont Ino vient le sauver, ibid., 313-387. 282 Cf. Platon, République VI, 496 d 6-7, cité ci-dessus, p. 71, avec n. 251. Cf. LSJ, s.v., II, 1. 283 « En effet, je vois le progrès de son entreprise ; et certes je voudrais me tromper dans mes prévisions, mais je crains fort que le dénouement ne soit déjà trop prochain. (...) En conséquence, tandis que l’évènement tarde encore, tandis que l’orage s’amasse et que nous nous écoutons mutuellement... », Démosthène, II Phil., 33 et 35 (trad. M. Croiset). 16. Ἐν τοιαύτῃ δὲ καταστάσει καὶ ἔτ’ ἀγνοίᾳ τοῦ συνισταμένου καὶ φυομένου κακοῦ τῶν ἁπάντων Ἑλλήνων ὄντων...284 17. Εἰ δ’ ὁ συμβὰς σκηπτὸς [ἢ χειμὼν] μὴ μόνον ἡμῶν, ἀλλὰ καὶ πάντων τῶν ἄλλων Ἑλλήνων μείζων γέγονε, τί χρὴ ποιεῖν ;285 Dans les deux premières occurrences, nous retrouvons le même verbe συνίστασθαι, dans l’acception « se constituer », « prendre forme »286, qui peut évoquer l’orage qui se prépare lorsque des nuages menaçants se rassemblent dans le ciel. Celui-ci n’apparaît pas explicitement, mais il se trouve suggéré à chaque fois par un terme général de connotation négative : le substantif τὰ πράγματα, pris ici dans son sens péjoratif de « difficultés », « ennuis », et l’adjectif κακόν substantivé au neutre, qui signifie « un mal »287. L’image exprime à chaque fois la même idée : l’orage qui se forme, les nuages qui s’amassent, désignent les manœuvres et les succès diplomatiques et militaires de Philippe qui aboutissent peu à peu à menacer directement Athènes, et cette menace n’est autre que l’éventualité d’une attaque, correspondant sur le plan du métaphorisant à l’éclatement de l’orage. Dans la Deuxième Philippique, Démosthène évoque plus précisément les progrès insidieux et habiles du roi de Macédoine en Grèce centrale, qui s’est rendu maître de la Phocide et des Thermopyles, à l’époque de la conclusion de la paix de Philocrate288. La première partie de la citation résume cette situation et constitue à ce titre une sorte d’explicit , de glose par anticipation de la métaphore qui suit. Autrement dit, elle a pour 284 « Quand tous les Grecs étaient dans une telle situation et ignoraient encore le fléau qui se préparait et grandissait... », Cour., 62 (trad. G. Mathieu). 285 « Mais si l’ouragan qui survint,
a été plus
fort
, non seulement que
nous
, mais que tous les autres Grec
s,
que
de
vons
-
nous
faire?
», ibid., 194 (id.). 286
Cf
. LSJ, s.v. συνίστημι, B, IV
,
c
.
287 Cf
.
respectivement LSJ, s.v. πρᾶγμα, III, 5, et κακός, B. L’imprécision même des termes rend la métaphore assez obscur
e
, si
bien qu’
elle
peut recevoir d’autres interprétations que celle de
l’orage
:
on a
pu aussi
la
lire
comme une métaphore
médica
le ou comme une métaphore végétale. Cf. respectivement chapitre II. « Les images de la maladie et de la médecine », p. 297, et ci-dessous, p. 168 sq. En faveur de l’orage, cf. les commentateurs cités par Wankel, 1976a, p. 377, ad Démosthène, Cour., 62, ἐν τοιαύτῃ δὲ καταστ
άσει
καὶ ἔτ’
ἀγνοίᾳ
τοῦ συνισταμένου κα
ὶ φυομένου
κακοῦ, ainsi que Weil, 1873, p. 232 (« comme συνίσταται τὰ νέφη, συνίσταται ὁ χειμών, “tant que l’orage se forme”. »). 288
(...) Γεγονυίας ἤδη τῆς εἰρήνης, ἀπὸ τῆς ὑστέρας ἥκων πρεσβείας τῆς ἐπὶ τοὺς ὅρκους, αἰσθόμενος φενακιζομένην τὴν πόλιν, (...) οὐκ εἴων προέσθαι Πύλας οὐδὲ Φωκέας... (« (...) la paix étant déjà faite, au retour de la seconde ambassade envoyée pour l’échange des serments, m’apercevant qu’on dupait la république, (...) je m’opposai à l’abandon des Thermopyles et des Phocidiens
.
»), (...) τίς ὁ Φωκέας πείσας καὶ Πύλας ὑμᾶς προέσθαι , ὧν καταστὰς ἐκεῖνος κύριος τῆς ἐπὶ τὴν Ἀττικὴν ὁδοῦ καὶ τῆς εἰς Πελοπόννησον κύριος γέγονεν... (« (...) quel est l’homme qui vous a persuadés d’abandonner la Phocide et la passe des Thermopyles, abandon qui en rendant Philippe maître de l’une et de l’autre, l’a rendu maître aussi des routes de l’Attique et du Péloponnèse. », Démosthène, II Phil., 29 et 35 (trad. M. Croiset), qui encadrent donc les deux parties de la métaphore. 79 fonction de la préparer, comme le souligne la répétition du terme πρᾶγμα au singulier, au sens d’« entreprise »289, en présentant les deux temps du métaphorisé contenus implicitement dans l’image. Elle peut même contribuer à la filer discrètement puisque nous pouvons y voir l’expression de la progression physique ou géographique d’un orage, d’une concrétion de nuages orageux et menaçants qui fait mouvement dans le ciel, en gagnant peu à peu le lieu où elle éclatera, à savoir la progression des manœuvres belliqueuses de Philippe dont le but est de s’en prendre finalement à Athènes en portant la guerre en Attique : (...) καὶ πεποίηχ’ ὑμῖν μὴ περὶ τῶν δικαίων μηδ’ ὑπὲρ τῶν ἔξω πραγμάτων εἶναι τὴν βουλήν, ἀλλ’ ὑπὲρ τῶν ἐν τῇ χώρᾳ καὶ τοῦ πρὸς τὴν Ἀττικὴν πολέμου, ὃς λυπήσει μὲν ἕκαστον, ἐπειδὰν παρῇ, γέγονεν δ’ ἐν ἐκείνῃ τῇ ἡμέρᾳ290. Ce passage, qui suit la seconde partie de la métaphore, en reprend un autre qu’il éclaire et qui précédait la première : Ἀλλ’ οἴομαί ποθ’ ὑμᾶς λυπήσειν ἃ Φίλιππος πράττει μᾶλλον ἢ τὰ νυνί291. La correspondance étroite entre les deux se fait visible grâce à la répétition du verbe λυπεῖν au futur, ainsi que, par là même, grâce à l’opposition entre deux moments, le passé ou le présent, et le futur. Or nous reconnaissons là, effectivement, la structure binaire de la métaphore de l’orage proposée dans ce passage, si bien que nous obtenons les réseaux de correspondance suivants entre métaphorisant et métaphorisé, renforcés par une disposition en chiasme qui met en évidence la métaphore comme dans un écrin : d’une part la série ἃ Φίλιππος πράττει τὰ νυνί / τὸ πρᾶγμα προβαῖνον / συνίσταται τὰ πράγματα / ὁ πρὸς τὴν Ἀττικὴν πολέμος, ὃς γέγονεν δ’ ἐν ἐκείνῃ τῇ ἡμέρᾳ, qui rapporte la constitution et la progression de l’orage aux succès de Philippe en Grèce centrale, d’autre part la série ποθε / λίαν ἐγγὺς ᾖ τοῦτ’ ἤδη / ἔτι μέλλει / ἐπειδὰν 289 Cf. LSJ, s.v., I. « D’où il est résulté qu’aujourd’hui ce n’est plus sur vos droits ni sur les affaires du dehors que vous délibérez, mais sur la défense de notre pays même et sur une menace de guerre contre l’Attique ; guerre qui fera souffrir chacun de nous, lorsqu’elle sera ici même, mais qui est née ce jour-là. », Démosthène, II Phil., 35 (id.). Cf. encore : Οὔτε γὰρ ναυσὶ δή που κρατήσας εἰς τὴν Ἀττικὴν ἦλθεν ἄν ποτε στόλῳ Φίλιππος, οὔτε πεζῇ βαδίζων ὑπὲρ τὰς Πύλας καὶ Φωκέας... (« Non, Philippe n’aurait pu, ni se donner par une victoire navale le moyen d’attaquer l’Attique avec sa flotte, ni par la voie de terre traverser les Thermopyles et la Phocide. »), ibid., 36 (id.). 291 « Non certes ; mais je pense que, quelque jour, vous ressentirez le mal que vous fait Philippe plus douloureusement qu’aujourd’hui. », ibid., 32 (id.). Cf. encore, juste après le premier élément de la métaphore, Ὅταν οὖν μηκέθ’ ὑμῖν ἀμελεῖν ἐξουσία γίγνηται τῶν συμβαινόντων, μηδ’ ἀκούηθ’ ὅτι ταῦτ’ ἐφ’ ὑμᾶς ἐστίν ἐμοῦ μηδὲ τοῦ δεῖνος, ἀλλ’ αὐτοὶ πάντες ὁρᾶτε... (« Et alors, le jour où il ne vous sera plus possible d’être indifférents aux événements, lorsque, au lieu de m’entendre, moi ou tel autre, vous dire que c’est à vous qu’on en veut, vous verrez tous par vos propres yeux ce qu’il en sera... »), ibid., 33 (id.). Nous voyons ainsi que cette première partie bénéficie elle-même d’un effet d’encadrement. 290 80 παρῇ τὸν πρὸς τὴν Ἀττικὴν πολέμον, qui envisage l’éclatement de l’orage, à savoir l’invasion militaire de l’Attique par le Macédonien. La première partie de la métaphore suggère enfin un dernier élément dans l’analogie, dont la présence se trouve à nouveau confirmée par l’encadrement de l’image : de même que la progression des nuages porteurs de l’orage se fait grâce à la poussée du vent, de même ce rôle d’adjuvant ou de moyen, d’instrument, renvoie au niveau du propos de l’orateur à l’un de ses thèmes récurrents, la dénonciation « des traîtres et des vendus » qui favorisent les entreprises de Philippe en entravant toute riposte énergique, et qui en l’occurrence sont accusés d’avoir persuadé le peuple d’abandonner à celui-ci la Phocide et les Thermopyles292. Il s’agit au premier chef des artisans de la paix de dupes stigmatisée ici, Eschine et Philocrate, aisément identifiables même si leur nom n’apparaît pas, en vertu des conventions propres au genre de la harangue293. En particulier, le passage Εἰ γὰρ μὴ παρεκρούσθητε τόθ’ ὑμεῖς, οὐδὲν ἂν ἦν τῇ πόλει πρᾶγμα294 corrobore le lien de cette thématique avec le schème métaphorique de l’orage, en raison de la répétition du terme πρᾶγμα. L’insistance sur la dimension visuelle, au début, renforce également l’image de l’orage qui s’assemble, en renvoyant à l’expérience concrète de celui-ci au travers des nuages que l’on observe s’amonceler et s’approcher avec un aspect menaçant (ὁρῶ295). Ἦν μὲν οὖν δίκαιον, ὦ ἄνδρες Ἀθηναῖοι, τοὺς ἐνεγκόντας ὑποσχέσεις ἐφ’ αἷς ἐπείσθητε ποιήσασθαι τὴν εἰρήνην καλεῖν. (...) Καὶ πάλιν γ’ ἑτέρους καλεῖν· τίνας ; τοὺς ὅτ’ ἐγώ... (« A vrai dire, Athéniens, il serait juste que ceux-là fussent invités à vous le suggérer qui ont apporté ici les promesses sur la foi desquelles on vous a persuadés de conclure la paix. (...) Après ceux-là, quels autres devrait-on inviter à parler? Oh! ceux à qui j’ai eu affaire quand,... »), ibid., 28 et 29 (id.) ; (...) τοῖς δ’ ἐμοὶ προσκρούσασιν ἐξ ἀρχῆς καὶ νῦν παράσχω πρόφασιν τοῦ πάλιν τι λαβεῖν παρὰ Φιλίππου· (« car je procurerai ainsi à ces hommes, qui dès l’origine se sont heurtés à moi, un prétexte pour se faire encore payer par Philippe ; »), ibid., 32 (id.) ; τῶν πρέσβεων σεσιωπηκότων ἐφ’ οἷς αὑτοῖς συνίσασι δεδωροδοκηκότες (« devant le silence de vos ambassadeurs, qui se gardent bien d’avouer pourquoi ils ont touché leur salaire en toute connaissance de cause »), ibid., 34 (id. modifiée) ; (...) ἕκαστον ὑμῶν, καίπερ ἀκριβῶς εἰδότα, ὅμως ἐπαναμνῆσαι βούλομαι, τίς ὁ Φωκέας πείσας καὶ Πύλας ὑμᾶς προέσθαι... (« (...) je veux rappeler à chacun de vous, quoiqu’il le sache très bien, quel est l’homme qui vous a persua dés d’abandonner la Phocide et la passe des Thermopyles... »), ibid., 35 (trad. M. Croiset). 293 Τοὺς ἐνεγκόντας ὑποσχέσεις ἐφ’ αἷς ἐπείσθητε ποιήσασθαι τὴν εἰρήνην (« ceux-là (...) qui ont apporté ici les promesses sur la foi desquelles on vous a persuadé de conclure la paix »), détaillé par : τοὺς (...) λέγοντας ὡς ἐγὼ μὲν ὕδωρ πίνων εἰκότως δύστροπος καὶ δύσκολός εἰμί τις ἄθρωπος, Φίλιππος δ’, ἅπερ εὔξαισθ’ ἂν ὑμεῖς, ἐὰν παρέλθῃ, πράξει, καὶ Θεσπιὰς μὲν καὶ Πλαταιὰς τειχιεῖ, Θηβαίους δὲ παύσει τῆς ὕβρεως, Χεῤῥόνησον δὲ τοῖς αὑτοῦ τέλεσι διορύξει, Εὔβοιαν δὲ καὶ τὸν Ὠρωπὸν ἀντ’ Ἀμφιπόλεως ὑμῖν ἀποδώσει. (« Là-dessus, ces gens-là de crier que j’étais un buveur d’eau, donc un grincheux, une mauvaise tête, que Philippe, s’il franchissait les défilés, ferait tout ce que vous pourriez souhaiter, qu’il fortifierait Thespies et Platées, qu’il mettrait fin à l’insolence des Thébains, qu’il creuserait à ses frais un canal à travers la Chersonèse, et même qu’il vous rendrait l’Eubée et Oropos en échange d’Amphipolis. »), ibid., 28 et 30 (id.) : Eschine et Philocrate, à l’origine de la proposition de paix, faisaient partie de l’ambassade, le premier fut l’auteur des promesses mensongères énumérées par Démosthène (cf. Amb., 19-23) et le second celui de la plaisanterie (cf. Amb., 46). 294 « Car, si vous n’aviez pas été dupés alors, il n’y aurait point à présent de souci pour la république. », II Phil., 36 (trad. M. Croiset). 295 Cf. un peu plus loin αὐτοὶ πάντες ὁρᾶτε (passage cité p. 42, n. 291). La participation de la première partie de la citation à la métaphore de l’orage résulte enfin de l’étude du vocabulaire employé par Démosthène. En effet, les termes προβαῖνον et ἐγγὺς semblent devoir s’entendre du point de vue locatif : le premier, qui signifie « s’avancer », ne revêt couramment un sens temporel que pour exprimer un moment déterminé du temps comme la nuit ou l’âge, toujours précisé296 ; il en va de même pour le second, avec cette différence qu’il dénote beaucoup plus rarement le temps que le lieu297. En outre, les emplois figurés du verbe προβαίνειν, qui appartiennent à l’usage courant298, mettent le plus souvent en jeu le sens premier, à savoir le sens locatif. Dans tous les cas, la valeur locative ou parfois temporelle se trouve généralement précisée par un pronom, un adverbe ou un nom, comme l’attestent ces trois exemples choisis pour leur proximité avec l’image de Démosthène : Εὐδαιμονεῖ γ’ ἅνθρωπος. Οὐκ ἤκουσας οἷ προβαίνει τὸ πρᾶγμα τοῦ βουλεύματος ;299 (...) πέρας δὴ ποῖ κακῶν προβήσεται.300 καὶ μὴ προβαίη μεῖζον ἢ τὸ νῦν κακόν.301 Les vers d’Aristophane s’en rapprochent le plus, puisque nous retrouvons le même groupe sujet/verbe que chez l’orateur, qui de surcroît exprime la même idée, à savoir la progression, la réalisation d’un projet, celui du marché pour Dicéopolis, celui de la conquête de la Grèce et plus précisément de l’assujettissement d’Athènes pour Philippe. Les deux autres citations correspondent au caractère négatif et menaçant que cette entreprise revêt chez Démosthène, en utilisant le terme κακόν du dis Sur la couronne. 296 Cf. LSJ, s.v. προβαίνω, I, 2. Comparer LSJ,
s
.
v
., I et II, ne qu’
Homère
, , , et X 298
Cf
.
LSJ, s
.
v
., I, 3, pour une idée de la fréquence de ces emplois chez tous les auteurs. 299 « Est-il heureux, cet homme! (Au Coryphée) N’as-tu pas entendu
comme lui réussit
l’exé
cution de son plan
? », Aristophane,
Les Acharnien
s, 83
6-7
(t
rad
.
H
.
van
Daele). Ces vers sont prononcés par le chœur à propos de Dicéopolis qui vient d’acheter les deux « truies » au Mégarien, après avoir chassé un sycophante. 300 « (...) où s’arrêteront donc ces calamités. », Euripide, Oreste, 511 (trad. L. Méridier). Il s’agit d’une question de Tyndare à Ménélas sur l’engrenage meurtrier entraîné par une vendetta. 301 « Puisse le malheur ne pas s’étendre plus loin que celui de ce jour! », id., Médée, 907 (id. modifiée). Le Coryphée exprime par là son souhait alors que Médée, accompagnée de leurs enfants, vient de plaider devant Jason pour une feinte réconciliation, qui vise à persuader celui-ci d’amener avec lui au palais les enfants porteurs des cadeaux empoisonnés qu’elle destine à Glaukè. 297 82 Par conséquent, à partir de ces divers éléments, il apparaît que nous avons affaire dans la Deuxième Philippique à une remotivation de la métaphore locative, grâce à l’adverbe ἐγγὺς et à l’image de l’orage qui suit en stricte correspondance, si bien que la première participe à la seconde302. La métaphore du Sur la Couronne adopte un point de vue rétrospectif original : Démosthène dénonce les signes avant-coureurs de l’orage qui se prépare, c’est-à-dire les divisions intestines entretenues dans toutes les cités par les manœuvres corruptrices de Philippe, à la lumière de l’orage lui-même, après qu’il a effectivement éclaté – du côté du métaphorisé après la défaite d’Athènes et de ses alliés à Chéronée303. Au travers de l’évocation de cette dernière, c’est-à-dire de la confrontation militaire, et de l’insistance sur le thème de la corruption qui carctérise cette image par rapport à la précédente, les deux métaphores se trouvent étroitement liées. Dans la troisième occurrence de la métaphore, le sens précis du terme σκηπτὸς peut prêter à discussion. A partir du sens étymologique « qui s’abat subitement sur », de σκήπτειν, « s’abattre sur »304, on peut hésiter entre la signification spécifique de « coup de foudre »305, et celle, plus générale, d’« orage » ou même plus précisément encore d’« ouragan », c’est-à-dire de « vents violents accompagnant un orage »306, entre lesquelles seul le contexte permet de trancher. La même difficulté s’étend donc aux emplois métaphoriques. Démosthène utilise le terme afin d’exprimer là encore la conquête militaire de la Grèce effectuée par Philippe, à savoir une entreprise de longue haleine307 qui ne s’est effectuée que progressivement. En ce sens, nous venons de voir que la métaphore de l’orage présente dans les deux occurrences précédentes rend parfaitement compte de cet aspect progressif : l’orage/Philippe représente un phénomène que les Athéniens ont eu le temps de voir venir, d’où le sens des exhortations répétées de Démosthène, qui ne cessa de tâcher de leur faire prendre conscience du danger et de leur faire adopter les mesures adéquates pour y 302 L’intervention des sèmes de lieu plaide aussi en faveur de l’orage pour le problème d’interprétation évoqué ci-dessus, p. 79, n. 287. 303 Cf. textes cités dans le chapitre « Les images de la maladie et de la médecine », passim. 304 Cf. Chantraine, 1999, s.v. σκήπτομαι, p. 1016. Pour ce sens intransitif de la forme active du verbe, cf. LSJ, s.v., II, 2. 305 Cf. par exemple Xénophon, Anabase, III, I, 11, ainsi que la définition du Pseudo-Aristote, Traité du monde, 4, 395 a 24-25, qui en fait un terme générique pour les différentes espèces de foudre. 306 Cf. Sophocle, Antigone, 417-8. 307 La prise d’Amphipolis et de Pydna, qui marque véritablement le début de l’affrontement entre Athènes et la Macédoine, remonte à l’automne 357. 83 parer. Cette dimension temporelle, ainsi que les deux autres images de l’orage qui l’expriment, invitent à donner au mot σκηπτὸς, dans le passage du Sur la Couronne, son acception générale d’orage ou d’ouragan : puisque le métaphorisé réside ici précisément dans la défaite de Chéronée308, ὁ συμβὰς σκηπτὸς désigne proprement l’éclatement, à proximité de l’Attique, de l’orage que nous avons vu s’amasser dans les deux passages précédents, et donc la dernière phase, l’achèvement des métaphores qui s’y trouvent. L’acception large d’orage, toujours en lien avec l’aspect progressif, reste également la seule à même de rendre compte pleinement de ce que le phénomène s’abat d’une part sur les Athéniens (μὴ μόνον ἡμῶν), ce qui renvoie précisément à cet éclatement de l’orage/Chéronée dont Démosthène parle ici, et d’autre part sur l’ensemble de la Grèce (ἀλλὰ καὶ πάντων τῶν ἄλλων Ἑλλήνων309), autrement dit non seulement les alliés d’Athènes qui ont été vaincus avec elle à Chéronée, principalement les Thébains310, mais encore tous les Grecs qui sont passés sous la domination de Philippe depuis le début de la guerre ainsi que lors de sa promenade militaire dans le Péloponnèse aprés Chéronée. Cette interprétation convient d’autant plus qu’elle conserve également le sème de soudaineté contenu dans l’idée de « s’abattre sur », puisque l’orage éclate brusquement, sans que nous nous y attendions, tout comme les Athéniens ne pouvaient prévoir ni quand ni où ni comment Philippe attaquerait311. Or cet élément de surprise correspond précisément au début de l’offensive de Philippe sur la Grèce centrale, lorsqu’il contourna contre toute attente, à la fin de l’automne 339, le passage des Thermopyles, contrôlé par les Thébains, en empruntant les cols de l’Œta, et qu’il s’empara d’Elatée, nouvelles qui provoquèrent la panique à Athènes, comme Démosthène vient de le décrire un peu plus haut en employant le même verbe συμβαίνειν que dans la métaphore, ce qui souligne le lien entre les deux éléments, entre métaphorisé et métaphorisant312. La défaite de Chéronée n’arrive que plus tard, de même 308 La métaphore se trouve en effet encadrée par des mentions de Chéronée : (...) Εἰ κρατῆσαι συνέβη Φιλίππῳ τῇ μάχῃ· (« (...) que Philippe soit arrivé à gagner la bataille ; »), Εἰ μετὰ Θηβαίων ἡμῖν ἀγωνιζομένοις οὕτως εἵμαρτο πρᾶξαι (...) ; Καὶ εἰ νῦν τριῶν ἡμερῶν ἀπὸ τῆς Ἀττικῆς ὁδὸν τῆς μάχης γενομενης... (« (...) si notre destin était d’aboutir à ce résultat en combattant alliés des Thébains (...)? Puisque, en fait, quand la bataille avait eu lieu à trois jours de marche de l’Attique... »), Démosthène, Cour., 193 et 195 (trad. G. Mathieu). 309 Nous soulignons. 310
L’alliance anti-ma
onienne suscitée par Athènes comprend aussi « les membres de la seconde Confédération, (...) toutes les cités d’Eubée, Mégare, Corinthe et les Achéens dans le Péloponnèse, les Acarnaniens, Corcyre et Leucade dans l’Ouest. », selon Carlier, 1995, p. 127. 311 Cf. II Phil., 32-33
et
35
(
textes cités p. 42, avec la n. 291, et p
. 41,
avec la
n
. 283), où Démosthène, avant la bataille, avant l’éclatement de l’orage (la harangue fut prononcée en 344), ne peut que les évoquer sur le mode d’un futur indéterminé (ποθ ́ ὑμᾶς λυπήσειν, ἤδη, Ὅταν, ἔτι μέλλει). 312 Ἀλλὰ μὴν τὸν τότε συμβάντ’ ἐν τῇ πόλει θόρυβον ἴστε μὲν ἅπαντες· (« D’ailleurs, vous connaissez tous l’affolement qu’il y eut alors à Athènes. »), (...) καὶ θορύβου πλήρης ἦν ἡ πόλις. (« (...) et toute la ville était remplie d’affolement. »), Cour., 168 et 169 (trad. G. Mathieu). 84 qu’un orage qui, après avoir éclaté subitement, n’atteint son paroxysme de violence qu’après un certain temps. Cette nouvelle dimension de durée et de montée en puissance, cette fois à l’intérieur même du phénomène de l’orage, se trouve effectivement suggérée dans le texte par l’expression μείζων γέγονε, qui exprime l’aboutissement d’un processus et constitue en outre de ce point de vue un argument supplémentaire en faveur de l’« orage », puisque le « coup de foudre » se caractérise au contraire par sa brièveté et son instantanéité. Le sens d’« orage violent » se trouve d’une part corroboré par les termes ἢ χειμὼν, faisant intervenir de fait un mot propre pour signifier « l’orage », « la tempête », que la plupart des éditeurs et des commentateurs s’accordent à considérer précisément comme une glose du terme e σκηπτὸς, insérée à partir de la comparaison qui suit immédiatement avec le naufrage du navire pris dans une tempête (χειμῶνι χρησάμενον313). Or celle-ci, d’autre part, plaide en effet de par sa proximité en faveur du sens général. Enfin, le sens de la métaphore est déterminé par la comparaison qui suit avec le navire de l’Etat, qui montre qu’elle désigne un orage en mer314. Notre image constitue en réalité la préparation de cette comparaison. Les autres emplois métaphoriques de σκηπτός, surtout dans cette acception d’« orage », d’« ouragan », ne se rencontrent guère que dans la tragédie afin de désigner un fléau, un malheur, tout comme chez Démosthène, et notamment la guerre315 : Eschyle utilise cette métaphore dans Les Perses pour la peste316 ; Euripide en use dans Andromaque afin d’exprimer le passage des meurtres sanglants de la guerre de Troie aux foyers des Grecs lors de leurs retours, en particulier ceux qui concernent les Atrides317 ; elle apparaît enfin dans le 313 Ibid., 194. Cf. notamment Weil, 1883, p. 513 ; Wankel, 1976b, p. 913 ad § 194, εἰ δ’ ὁ συμβὰς σκηπτὸς [ἢ χειμὼν]... ; Yunis, 2001, p. 215 ad loc. 194 ; Mathieu, 1947, p. 88. 314 Cette comparaison est citée supra, p. 77, n. 273. Pour son interpétation, cf. ci-dessous, p. 206-207. 315 Les métaphores faisant intervenir χειμών chez les Tragiques présentent la même signification ; cf. Taillardat, 1965, p. 180, avec la n. 3 ; Hörmann, 1934, p. 33. Le terme σκηπτός semble courant en comédie dans son sens de « coup de foudre » pour exprimer une métaphore du parasite, de l’importun qui vient s’abattre tout à coup sur un personnage. Cf. Antiphane, fgmt. 193, 11 Kassel/Austin (PCG II, p. 422/3) = 195, 11 Kock (CAF II, p. 94) ; Ménandre, Samienne, Kœrte (I, p.
80) = 728 Jean-
Marie
Jacques (CUF 1/1, p. 38), et Comœdia florentina, 58 Kœrte (I, p. 141). 316 (...) Λοιμοῦ τις ἦλθε σκηπτὸς ἢ στάσις πόλει ; (« (...) est-ce la peste, est-ce la guerre civile qui s’est abattue sur l’Etat? »), Eschyle, Les Perses, 715 (tard. P. Mazon). On peut hésiter pour cet exemple avec le sens de « coup de foudre », puisque le sème dominant, comme le souligne justement la traduction de P. Mazon, est celui de « s’abattre sur ». Cf. en effet, à propos de la « peste », Sophocle, Œdipe roi, 27-8 ((...) ἐν δ’ ὁ πυρφόρος θεὸς / σκήψας ἐλαύνει, λοιμὸς ἔχθιστος, πόλιν », « Une déesse porte-torche, déesse affreuse entre toutes, la Peste, s’est abattue sur nous, fouaillant notre ville... » (trad. P. Mazon)), et Thucydide, II, XLVII, 3 ((...) λεγόμενον μὲν καὶ πρότερον πολλαχόσε ἐγκατασκῆψαι [sc. τὴν νόσον]..., « (...) et l’on racontait bien qu’auparavant déjà le mal s’était abattu en diverses régions... » (trad. J. de Romilly)). 317 (...) / Διέβα δὲ Φρυγῶν / καὶ πρὸς εὐκάρπους γύας / σκηπτὸς σταλάσσων Δαναΐδαις φόνον. (« Et à travers l’espace de la Phrygie aux guérets fertiles est venue s’abattre sur les Danaens une pluie de sang. »), Euripide, Andromaque, 1044-6 (trad. L. Méridier). Dans cette occurrence, l’idée de progression géographique 85 Rhésos du Pseudo-Euripide où Athéna, s’adressant à Ulysse et à Diomède, l’applique à l ’approche de l’armée thrace dont ceux-ci viennent de tuer le roi, Rhésos : (...) Τί μέλλετε σκηπτοῦ ̓πιόντος πολεμίων σῶσαι βίον ;318 Cet exemple demeure le plus proche de la métaphore de Démosthène puisqu’il désigne le danger représenté par une attaque ennemie. L’orateur, par conséquent, outre le caractère tout personnel du schème métaphorique qu’il élabore, propose une image forte, d’une part parce qu’elle demeure relativement peu fréquente, d’autre part et surtout parce qu’elle se trouve circonscrite à la tragédie et demeure par là même fortement perceptible dans un discours en prose. Plus généralement, nous voyons qu’avec toutes les images qui gravitent autour de la représentation de l’orage pour évoquer la guerre, Démosthène s’inscrit dans un registre résolument élevé, poétique, que l’on retrouve chez Homère, chez les poètes lyriques et chez les Tragiques. Toutefois, ces images se concentrent le plus souvent non pas sur le phénomène général de l’orage, mais sur l’un de ses éléments constitutifs, notamment les vagues ou le nuage319. Homère compare ainsi à la déferlante d’une vague l’attaque du camp achéen par les Troyens : Οἱ δ ̓ ὥς τε μέγα κῦμα θαλάσσης εὐρυπόροιο νηὸς ὑπὲρ τοίχων καταβήσεται, ὁππότ ̓ ἐπείγῃ ἲς ἀνέμου· ἡ γάρ τε μάλιστά γε κύματ ̓ ὀφέλλει· ς Τρῶες μεγάλῃ ἰαχῇ κατὰ τεῖχος ἔβαινον, ἵππους δ ̓ εἰσελάσαντες ἐπὶ πρύμνῃσι μάχοντο (...)320 ainsi que l’évocation de la pluie au travers du verbe σταλάσσω, qui signifie en effet « faire couler goutte à goutte », renvoient sans aucun doute à la notion d’orage. 318 « Q’attendez-vous? Un orage d’ennemis s’avance : sauvez vos vies. », [Euripide], Rhésos, 673-4 (trad. F. Jouan modifiée). L ’idée d’approche, d’attaque, met en jeu l’orage et non pas la foudre, puisque celle-ci, indissociable de la notion de contact dans la mesure où elle frappe quelque-chose ou quelqu’un, impliquerait qu’Ulysse et Diomède fussent déjà aux prises avec l’ennemi et même ne s’en sortissent point indemnes. 319 Cf. les textes cités ci-dessus, p. 64. 320 « Tout comme un grand flot de la vaste mer s’abat sur une nef, par-dessus ses bordages, quand le presse la force du vent, qui fait monter si haut les vagues ; ainsi les Troyens, dans une clameur immense, franchissent le mur et, poussant leurs chars, ils combattent près des poupes... », Homère, Iliade, XV, 381-5 (trad. P. Mazon). 86 Aux dires d’Héraclite, un commentateur ancien d’Homère, Archiloque utilise la représentation de l’orage en mer comme métaphore pour évoquer la guerre321. Même s’il s’en distingue en raison du caractère extérieur de la guerre, ce schéma est sans doute une préfiguration de celui du navire de l’Etat, tel que nous le trouvons chez Alcée et chez Théognis322. Chez les Tragiques enfin, si nous laissons de côté les deux exemples d’Euripide qui font intervenir σκηπτός, il n’est guère possible de citer qu’un passage de l’Antigone de Sophocle qui emploie le terme générique χειμών, dans le cadre d’une définition du bon « citoyen » établie par Créon : Καὶ τοῦτον ἂν τὸν ἄνδρα θαρσοίην ἐγὼ καλῶς μὲν ἄρχειν, εὖ δ’ ἂν ἄρχεσθαι θέλειν, δορός τ’ ἂν ἐν χειμῶνι προστεταγμένον μένειν δίκαιον κἀγαθὸν παραστάτην.323 Les trois images de Démosthène ne sont donc pas originales, mais l’orateur se distingue par l’usage qu’il en fait : il travaille d’abord pour lui-même le matériel métaphorique en évoquant divers aspects du même phénomène ; surtout, les métaphores de l’orage constituent chez lui un groupe très cohérent, étroitement articulé au service de l’évocation du danger macédonien. Ce procédé permet d’en présenter les différentes phases et de le rendre de façon fort expressive : non seulement le motif de l’orage dramatise la situation, en particulier dans 321 Γλαῦχ ̓ ὅρα· βαθὺς γὰρ ἤδη κύμασιν ταράσσεται / πόντος, ἀμφὶ δ ̓ ἄκρα Γυρέων ὀρθὸν ἵσταται νέφος, / σῆμα χειμῶνος· κιχάνει δ ̓ ἐξ ἀελπτίης φόβος (« Vois, Glaucos, déjà la mer se creuse de hautes lames et, à la pointe des roches Gyres, un nuage s’élève tout droit, signe de tempête. Une brusque terreur nous frappe. », Archiloque, fgmt.
Lasser
re et
Bonn
(CUF, p. 33 ; trad. A. Bonnard) = 105 West (IEG I, p. 41) =
56 Campbell
,
1982
,
p. 3 = 54 Bergk (PLG II, p. 396-7). Page, 1955
,
p
. 181, rapproche ce poème du passage d’Homère, Iliade, XV, 381-4, que nous venons de citer. Voici le commentaire d’Héraclite : Καθάπερ Ἀρχίλοχος μὲν ἐν τοῖς Θρᾳκικοῖς ἀπειλημμένος δεινοῖς τὸν πόλεμον εἰκάζει θαλαττίῳ κλύδωνι... (« De même Archiloque, bloqué dans les troubles de Thrace, compare la guerre à l’agitation de la mer... », nous traduisons), Héraclite, Problèmes homériques, 5, 3. Tout le monde cite ce passage. Suivent explicitement cette interprétation : West, 1974, p. 129, ad fgmt. 106 West (IEG I, p. 41) ; Campbell, 1982, p. 150, ad loc. ; Brock, 2013, p. 53. Contra, cf. simplement le scepticisme de Page, 1955, p. 181-2, n. 4, et d’A. Bonnard, in Lasserre et Bonnard, 1958, p. 33, ad loc. L’hypothèse que le fmgt. 106 West (IEG I, p. 41) = 104 Lasserre et Bonnard (CUF, p. 34), est une continuation de l’allégorie du fgmt. 322 Cf. Page, 1955, p. 182 ; Brock, 2013, p. 53-4. 323
« Et c’est aussi ce citoyen docile qui, j’en ai confiance, saura commander quelque jour, tout comme il se laisse aujourd’hui commander, tout comme au milieu des orages de guerre il demeure à son poste, en loyal et brave soldat. », Sophocle, Antigone, 668-71 (trad. P. Mazon). Nous remarquons la présence de la formule dont Aristote fera la définition même du citoyen (cf. Aristote, La Politique, III, 4, 1277 b 14). Il s’agit d’une maxime que l’on attribuait à Solon (cf. DL I, 60). Elle accentue donc le caractère général et impersonnel, indéterminé de cette métaphore. 87 la Deuxième Philippique, en insistant sur la gravité de la menace pour provoquer un sursaut chez les auditeurs, mais encore il suggère la progression inexorable de Philippe jusqu’à la bataille finale de Chéronée. Ce point ressort dans le Sur la Couronne, où le regard rétrospectif porté sur les évènements met en exergue le caractère hors de portée et presque fatal324 du phénomène météorologique. Ce faisant, Démosthène s’inscrit dans un réseau d’images tragiques. 7) Le tonnerre Démosthène emploie par deux fois l’image spécifique du tonnerre : 18. Τὸν δὲ κατηγοροῦντα τί ; <Ἀθηναῖοι ἡγοῦντο> Ἐμβεβροντῆσθαι, τὴν πόλιν ἀγνοεῖν, οὐχ ἔχειν ὅποι τὰ ἑαυτοῦ ῥίπτῃ.325 19. Ἐμβρόντητε, εἶτα νῦν λέγεις ;326 Ces deux métaphores font intervenir la représentation d’une personne frappée par le tonnerre ou par la foudre (βροντή), qui est donc en état de choc et ne possède plus ses facultés intellectuelles327. À partir de là, l’adjectif ἐμβρόντητος et ses dérivés s’emploient presque exclusivement en grec au figuré, dans l’acception « stupide, imbécile »328. La métaphore, que Démosthène est seul à employer chez les orateurs, devient courante au IVème siècle, surtout en comédie, et notamment chez Ménandre329. Elle s’apparente à une insulte, et s’inscrit dans le topos de la stupidité de l’adversaire330. 324 Nous ne développons ce point que ci-dessous, p. 92-94, à propos de la grêle, parce que l’image s’y prête particulièrement bien. 325 « Et leur accusateur? <Les Athéniens ont jugé> Qu’il avait le cerveau fêlé, qu’il ne connaissait pas son pays, qu’il ne savait où jeter son argent. », Démosthène, Amb., 231 (trad. G. Mathieu). 326 « Abruti, c’est maintenant que tu parles? », Cour., 243 (id.). 327 Cf. Xénophon, Helléniques, IV, 7, 7 : Ἐκ δὲ τούτου περὶ τὰς Εἰρκτὰς στρατοπεδευομένου αὐτοῦ πίπτει κεραυν ὸς εἰς τὸ στρατόπεδον· καὶ οἱ μέν τινες πληγέντες, οἱ δὲ καὶ ἐμβροντηθέντες ἀπέθανον. (« Quelque temps après, le camp d’Agésipolis, établi près du Réduit, fut frappé de la foudre ; il y eut des hommes foudroyés, d’autres aussi qui furent tués pas la commotion. », trad. J. Hatzfeld). Taillardat, 1965, p. 268, n. 4, cite également Eschyle, Prométhée enchaîné, 1061-2 : (...) μὴ φρένας ὑμῶν ἠλιθιώσῃ / βροντῆς μύκημ’ ἀτέραμνον. (« (...) si vous ne voulez que la stupeur soudain ne vous prenne au mugissement d’un tonnerre implacable. », trad. P. Mazon). 328 Cf. LSJ, s.v. Démosthène insère en effet par deux fois cette image dans le discours supposé d’un tiers, si bien qu’elle contribue stylistiquement à l’impression d’oralité. Dans le passage du Sur l’Ambassade, dans une sorte de figure du monde à l’envers, Démosthène imagine quelles seraient les motivations des Athéniens, absurdes car diamétralement contraires à la réalité331, s’ils rendaient un jugement opposé à son réquisitoire, en d’autres termes s’ils acquittaient Eschine et le condamnaient lui, l’« accusateur » dont il est question. Cette attitude tellement ridicule s’accorde avec le registre comique de l’image... et sera pourtant celle des juges! Dans le Sur la Couronne, de la même manière, la métaphore apparaît dans un court dialogue fictif au sein de la comparaison du mauvais médecin332, qu’elle vient clore en manière de pointe sarcastique, dialogue lui-même inséré dans un autre dialogue, entre Démosthène et Eschine333. La structure dialogique du passage, renforcée par les courtes interrogations qui créent un rythme assez rapide, même s’il est entrecoupé de propositions plus longues – notamment celle qui développe la comparaison –, peut ainsi faire penser à la (PCG VII, p. 250) = 44, 3 Kock (CAF II, p. 489-90) ; fgmta adespota 1014, 42 Kassel/Austin (PCG VIII, p. 308) ; on peut ajouter à cette liste [Platon], Second Alcibiade, 140 c 8, écrit à la fin du IVème siècle ou au IIIème siècle selon Souilhé, 1962, p. 18. Ἐμβροντησία : Ménandre, Samienne, 196 (Kœrte I, p. 79) = 583 Jean-Marie Jacques = fgmta adespota 995 Kock (CAF III, p. 576) ; Ἐμβεβροντῆσθαι : Ménandre, Κόλαξ, 63 (Kœrte I, p. 114) ; Γεωργός, fgmt. 4, 1 (Kœrte I, p. 99) = 100 Kock (CAF III, p. 30). 330 Cf. supra, p. 59, avec les références n. 196. 331 Démosthène vient en effet de rappeler ce qu’il en fut selon lui de cette dernière lors de la deuxième ambassade. Cf. Démosthène, Amb., 229-30, où il insiste en particulier sur le fait qu’il a pris sur ses propres deniers pour racheter des prisonniers athéniens. Cf. encore le passage qui précède immédiatement notre image : Τοὺς μὲν χρήματ’ εἰληφότας καὶ δῶρα καὶ καταισχύναντας ἑαυτοὺς, τὴν πόλιν, τοὺς ἑαυτῶν παῖδας, ἀφεῖσαν [i.e. Ἀθηναῖοι] καὶ νοῦν ἔχειν ἡγοῦντο καὶ τὴν πόλιν εὐθενεῖσθαι. (« Ces gens qui avaient reçu de l’argent et des cadeaux, qui avaient déshonoré, outre eux-mêmes, leur pays, leurs propres enfants, il les ont acquittés ; ils ont jugé que c’étaient des gens intelligents et que la ville était florissante. »), ibid., 231 (trad. G. Mathieu). On remarquera que dans l’opposition terme à terme entretenue entre les deux passages, Ἐμβεβροντ
σθαι correspond à
ν
οῦν
ἔχειν. 332 Voir ci-dessus, « Les images de la médecine et de la maladie », p. 346 sq. Ἀλλ’ εἰ νῦν ἐπὶ τοῖς πεπρεγμένοις κατηγορίας ἔχω, τί ἂν οἴεσθε, εἰ τότ’ ἐμοῦ περὶ τούτων ἀκριμολογουμένου ἀπῆλθον αἱ πόλεις καὶ προσέθεντο Φιλίππῳ, καὶ ἅμα Εὐβοίας καὶ Θηβῶν καὶ Βυζαντίου κύριος κατέστη, τί ποιεῖν ἂν ἢ τί λέγειν τοὺς ἀσεβεῖς ἀνθρώπους τουτουσί ; Οὐχ ὡς ἐξεδοθήσαν ; Οὐχ ὡς ἀπηλάθεσαν, βουλόμενοι μεθ’ ἡμῶν εἶναι ; Εἶτα « τοῦ μὲν Ἑλλησπόντου διὰ Βυζαντίων ἐγκρατὴς καθέστηκε καὶ τῆς σιτοπομπίας τῆς τῶν Ἑλλήνων κύριος, πόλεμος δ’ ὅμορος καὶ βαρὺς εἰς τὴν Ἀττικὴν διὰ Θηβαίων κεκόσμισται, ἄπλους δ’ ἡ θάλαττα ὑπὸ τῶν ἐκ τῆς Εὐβοίας ὁρμωμένων λῃστῶν γέγονεν » ; Οὐκ ἂν ταῦτ’ ἔλεγον καὶ πολλά γε πρὸς τούτοις ἕτερα ; (...) Τί γὰρ ἡ σὴ δεινότης εἰς ὄνησιν ἥκει τῇ πατρίδι ; Νῦν ἡμῖν λέγεις ὑπὲρ τῶν παρεληλυθότων ; Ὥσπερ ἂν εἴ τις ἰατρὸς (...) ἀκολουθῶν ἐπὶ τὸ μνῆμα διεξίοι· « Εἰ τὸ καὶ τὸ ἐποίησεν ἅνθρωπος οὑτοσὶ, οὐκ ἂν ἀπέθανεν. » Ἐμβρόντητε, εἶτα νῦν λέγεις ; (« Mais puisque maintenant on m’accuse de ce qui s’est passé, si alors j’avais discuté minutieusement sur ces points et si alors États en question étaient partis pour s’associer à Philippe, si celui-ci était devenu maître à la fois de l’Eubée, de Thèbes et de Byzance, que croyez-vous que feraient ou diraient maintenant les impies que voilà? Que ces gens ont été livrés, chassés, quand ils voulaient être à nos côtés. Et puis : « Philippe, grâce aux Byzantins, a eu la maîtrise de l’Hellespont et est l’arbitre de la route du blé vers la Grèce ; grâce aux Thébains, une lourde guerre a été transportée aux frontière de l’Attique ; la mer est bloquée par les corsaires qui partent de l’Eubée. » N’est-ce pas cela qu’ils diraient, et encore bien d’autre choses? (...) En quoi ton éloquence est-elle venue servir la patrie? C’est maintenant que tu nous parles du passé? C’est comme si un médecin (...) en suivant le convoi jusqu’au tombeau dissertât : « Si cet homme avait fait ceci et cela, il ne serait pas mort. » Abruti, c’est maintenant que tu parles? », Démosthène, Cour., 240-3 (trad. G. Mathieu). comédie, voire à une scène d’agôn. C’est en particulier le cas pour l’échange fictif des deux répliques finales. Enfin, l’antéposition de l’adjectif au vocatif participe d’un style comique334. Du fait du dialogisme à plusieurs étages mis en place par l’orateur, la réplique, et donc la métaphore, s’adressent d’abord au mauvais médecin, mais plus fondamentalement à Eschine, interpellé juste avant, et qui est visé par la comparaison. Démosthène use par conséquent de manière cohérente sur le plan stylistique de ces deux métaphores, au service d’une même idée, à savoir les services rendus à la cité. 8) Les précipitations L’orage est souvent accompagné de vents violents et se caractérise également par diverses précipitations, en particulier la grêle et la pluie, auxquelles Démosthène emprunte aussi une comparaison et une métaphore. a) La grêle 20. Ἀλλ’ ὅμως ταῦθ’ ὁρῶντες οἱ Ἕλληνες ἀνέχονται, καὶ τὸν αὐτὸν τρόπον ὥσπερ τὴν χάλαζαν ἔμοιγε δοκοῦσι θεωρεῖν, εὐχόμενοι μὴ καθ’ ἑαυτοὺς ἕκαστοι γενέσθαι, κωλύειν δ’ οὐδεὶς ἐπιχειρῶν.335 La « grêle », χάλαζα, est associée à l’orage depuis Homère : ὡς δ’ ὅτ’ ἂν ἀστράπτῃ πόσις Ἥρης ἠυκόμοιο, τεύχων ἢ πολὺν ὄμβρον ἀθέσφατον ἠὲ χάλαζαν (...).336 Dans le schéma de Démosthène, l’« averse de grêle » ou l’« orage de grêle » correspondent à tous les actes manifestant l’« insolence » de Philippe337, que
’orateur 334 Cf. Gebauer, 1877, p. VII. «
En
vain les Grecs en sont témoins, ils le supportent, et vraiment ils me font l’effet de gens qui regardent tout cela comme une averse de grêle : chacun d’eux fait des vœux pour qu’elle ne tombe pas sur lui, aucun n’essaye de détourner le fléau. », Démosthène, III Phil., 33 (trad. M. Croiset). « Ainsi qu’on voit l’époux d’Héré aux beaux cheveux lancer l’éclair, quand il prépare soit une averse de déluge – ou la grêle... », Homère, Iliade, X, 5-6 (trad. P. Mazon). L’orage apparaît ici au travers des éclairs (ἀστράπτῃ). Cf. encore Chantraine, 1999, s.v. χάλαζα, p. 1241, qui glose ainsi la signification : « grain ou orage de grêle ». Cf. aussi Aristophane, Grenouilles, 848 et 852-5 ; Platon, Rép., III, 397 a 3-4, et VI, 496 d 6-7, qui associe en outre à ces deux phénomènes celui du vent : cf. ci-dessus, p. 71, avec la n. 251. 335 90 vient d’énumérer longuement en détail, c’est-à-dire toutes les entreprises par lesquelles il s’arroge la souveraineté sur les Grecs, militairement ou en termes de prérogatives politiques et religieuses ; les deux sont liées puisque ces dernières résultent de ses victoires, si bien que la domination apparaît avant tout militaire338. Démosthène retient donc le côté violent de la grêle, qui peut occasionner des dégâts aux bâtiments et aux cultures339, ce qui renvoie au fait que Philippe cherche à asservir la Grèce par les armes. De ce point de vue, la montée en puissance du Macédonien, qui exerce déjà sa domination sur certains Grecs, constitue une menace qui les concerne tous, la grêle qui a déjà frappé certains peuples et cités menace de s’abattre sur tous (οἱ Ἕλληνες ; καθ’ ἑαυτοὺς ἕκαστοι) ; c’est pourquoi ceux qui restent encore indemnes adressent des prières aux dieux afin qu’ils détournent d’eux l’orage de grêle, la catastrophe (εὐχόμενοι μὴ καθ’ ἑαυτοὺς ἕκαστοι γενέσθαι), qu’ils ne font pour l’instant qu’observer chez les autres (ταῦθ’ ὁρῶντες ; θεωρεῖν). Ce thème du regard dénonce l’inaction des Grecs : Démosthène reprend ici l’antienne qu’il ne cesse de répéter depuis la Première Philippique340, en lui donnant une portée plus générale, parce qu’il ne la réserve plus aux seuls Athéniens mais l’élargit à l’ensemble des Grecs. Tout comme pour la métaphore de l’orage, nous observons l’importance accordée ici encore par Démosthène à la dimension visuelle, qui renforce le réalisme et l’efficacité l’image, l’enargeia qu’elle produit, tout en soulignant cette dernière par une sorte de mise en 337 Καίτοι τί τῆς ἐσχάτης ὕβρεως ἀπολείπει ; (« Est-il possible, cependant, de pousser plus loin l’insolence? »), Démosthène, III Phil., 32 (trad. M. Croiset).
| 21,085
|
tel-03641686-2021_vincent_jaulin_these.txt_5
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,022
|
Étude et modélisation d'impacts hautes et basses vitesses sur des matériaux et structures de satellites. Matériaux et structures en mécanique [physics.class-ph]. ENSTA Bretagne - École nationale supérieure de techniques avancées Bretagne, 2021. Français. ⟨NNT : 2021ENTA0004⟩. ⟨tel-03641686⟩
|
None
|
French
|
Spoken
| 7,346
| 11,896
|
MATÉRIAUX ET MOYENS EXPÉRIMENTAUX
de la gure de Lissajous réalisée à chaque tir nécessite tout de même d'exposer le matériau au rayonnement laser pendant une durée prolongée. La deuxième solution consiste à apposer une couche d'aluminium en surface libre de la cible. Cela permet de résoudre la problématique mais la validité des résultats mesurés est alors soumise à des incertitudes supplémentaires. On encourt le risque d'un décollement du dépôt métallique de la cible sous choc. La vitesse mesurée est alors celle du dépôt et non de la surface libre de la cible. L'épaisseur de métallisation représente alors un compromis entre bonne réectivité et adhérence à la cible. An de minimiser cette intrusivité, il est préférable de faire un dépôt aussi mince que possible par dépôt en phase vapeur par exemple. Une autre source de problème concerne la direction de rétro-diusion du faisceau laser sur la cible. La lumière doit arriver en incidence normale à la cible an d'être transmis à la bre. Dans le cas de chargements 2D dans des cible nes, la mise en vitesse de la surface libre induit une non planéité de la surface qui peut entrainer la perte rapide du signal. De plus, les éjectas en face arrière de la cible, générés par délaminage ou écaillage d'une cible, subissent généralement une faible rotation qui peut également induire une perte de signal. Enn, la méthode d'analyse des signaux Valyn VISAR ne permet pas de discriminer deux composantes de vitesses portées par un même signal laser retour. La mesure est dans ce cas inopérante. La Vélocimétrie Hétérodyne
Le deuxième méthode interférométrique employée durant dans cette thèse est la Vélocimétrie Hétérodyne (VH), généralement appelée PDV [112, 113] par les travaux américains pour Photonic Doppler Velocimetry. Comme pour les autres IDL (Pérot-Fabry, VISAR), un laser monochromatique éclaire un mobile au moyen d'une sonde. On récupère au travers de la sonde, la lumière rétro-diusée, porteuse de l'information vitesse (décalage Doppler). À la diérence de l'IDL Pérot-Fabry et de l'IDL VISAR qui pratiquent, au sein d'un même interféromètre (respectivement Pérot-Fabry ou Michelson), l'auto-interférence de l'onde Doppler, la VH fait interférer cette onde Doppler avec l'onde source sur un photo-détecteur. L'interférence de l'onde laser ayant subi l'eet Doppler et de l'onde dite de référence (n'ayant pas vu le mobile) induit des battements de fréquence qui portent l'information du décalage fréquentiel par eet Doppler. La vitesse peut être déduite par diérents moyens, détaillés dans l'Annexe C. Au CEA-DAM, on a généralement recours à une transformée de Fourrier pour déduire l'évolution temporelle de la vitesse du mobile à partir des données brut. On fera ici référence à cette méthode comme étant la VH "classique", qui est celle utilisée au cours de cette thèse. La VH présente plusieurs avantages : La VH a l'avantage de ne pas être très exigeante sur la puissance du signal retour, car ce dernier n'est plus divisé dans l'interféromètre, ce qui permet d'employer des sources laser de moindre puissance ou d'utiliser une bre collimatée avec surface d'éclairement large. La VH s'adapte donc bien au contexte des matériaux composites ; La VH s'adapte également à l'inclinaison de la surface de mesure, ce qui permet de mesurer la vitesse d'objets en rotation [114]. Entre autre, elle s'adapte aux surfaces rugueuses, comme c'est le cas pour le composite CFRP. Outre cela, la VH à l'avantage d'être multi-vitesse, c'est à dire qu'elle permet de mesurer la vitesse de plusieurs particules simultanément [114, 115]. Cela s'avère 2.4. utile pour mesurer la vitesse d'un nuage de particules ainsi que pour des essais induisant de la fragmentation. En ce qui concerne ses limitations, l'utilisation d'une Transformée de Fourier Discrète (TFD ou STFT, détails en Annexe C) induit une incertitude temporelle dépendante de la taille de la fenêtre de glissement choisie pour l'analyse. La résolution temporelle est supérieure à la nanoseconde, ce qui s'avère problématique pour mesurer avec précision les fortes variations de vitesse. La détection de l'arrivée d'un premier choc est cependant mesurable avec une précision d'une nanoseconde en observant l'instant de changement de fréquence dans les signaux bruts [112]. Les travaux de Chevalier se consacrent également à l'inuence des codes de dépouillement et des paramètres de TFT sur le dépouillement de signaux brut VH pour de nombreux types d'essais dynamiques. Dans le cadre de cette thèse, le logiciel Exploitation VH, développé au CEA/CESTA, a été employé pour le dépouillement des résultats VH. Le principe du dépouillement est présenté dans l'Annexe C.
2.4.2 Systèmes de visualisation L'ombroscopie
L'ombroscopie, ou visualisation transverse, est un procédé d'imagerie permettant d'observer et de visualiser un phénomène dynamique tels qu'un IHV. Pour ce faire, un ash éclaire la zone d'intérêt pendant la durée de l'impact. Une caméra rapide placée de l'autre côté de la scène capte les faisceaux de lumière ayant traversé la zone d'intérêt. Si de la matière trouve dans cette zone, alors elle bloque le passage de la lumière, qui apparait telle une ombre sur les images de caméra (Figure 2.13).
Figure 2.13 Visualisation d'un nuage de débris par ombroscopie à l'aide d'une caméra rapide. Durant la thèse, l'ombroscopie est systématiquement utilisée lors des IHV avec les lanceurs MICO et HERMES. Elle permet d'observer les nuages de débris éjectés en face avant et arrière des cibles. Concernant la caméra rapide, la résolution de l'image dépend de la taille de la zone à observer ainsi que de la fréquence des images désirée. Selon les essais menées dans cette thèse, diérentes caméras ont été employées avec des zones d'enregistrement diérentes. Les fréquences et les résolutions seront précisées dans le Chapitre 3 pour chacune d'elles.
Le prolomètre
Le prolomètre est un outil interférométrique permettant de cartographier en trois dimensions une surface. Dans notre étude, le prolomètre du CEA-CESTA permet d'étu- dier l'état de surface des matériaux (2.1). Dans le cas des chocs laser (Chapitre 3, 3.2.4), la prolométrie nous renseigne également sur l'endommagement dans les cibles et donne accès aux prols de perforation des cibles le cas échéant. Ces résultats peuvent ensuite être comparés aux simulations numériques. Pour réaliser la mesure, un faisceau lumineux monochromatique est émis vers la surface à mesurer. Le signal lumineux rééchi est alors envoyé vers un interféromètre pour interférer avec le signal de référence. Le laser balaye alors une plage d'altitude an de déterminer le plan d'interférence. Connaissant la longueur d'onde du faisceau, il est possible de ressortir la hauteur locale de la surface. Cette mesure est répétée pour chaque élément de surface et les résultats sont juxtaposés pour former une cartographie de la zone d'intérêt, généralement un cratère d'impact ou des zones d'endommagement. Chapitre 3 Étude et caractérisation des matériaux d'étude sous choc
Un IHV sur W-S peut être découpé en plusieurs étapes, dont la première est la création du nuage de débris lors de l'impact du projectile sur le premier bouclier. Avant de s'intéresser à la réponse de la structure entière à l'IHV, il est d'abord nécessaire de comprendre le processus de formation du nuage de débris lors d'un tel évènement. Les lanceurs à gaz double étage permettent de reproduire un impact hypervéloce jusqu'à 7 km/s. Lors d'impacts sur cibles épaisses, les mesurandes concernent généralement l'état de la cible après tir. Mais dans le cadre des impacts sur structures multi-boucliers, le premier bouclier sert de surface sacricielle et n'a d'autre rôle que de fragmenter le projectile. L'état du bouclier primaire dans un W-S ne nous intéresse que marginalement, même s'il sert parfois de critère de validation d'un modèle numérique. Ce sont plutôt les caractéristiques du nuage de débris généré à l'impact qui nous intéressent en priorité. L'attention se porte en particulier sur : la répartition de la masse dans le nuage ; la vitesse du nuage de débris dans les directions axiales et radiales. Lors de son déplacement axial vers le bouclier secondaire, le nuage s'étend radialement. Une bonne connaissance des vitesses d'expansion est donc importante an que la densité de matière impactant le bouclier suivant soit bien caractérisée ; l'état de la matière dans le nuage. Ce critère est généralement peu étudié malgré son importance capitale, car il inue fortement sur la façon dont s'étend le nuage de débris avant d'impacter les boucliers suivants. Une fois les caractéristiques du nuage de débris bien dénies, on peut chercher à les modéliser avec la simulation numérique. Plusieurs travaux se sont intéressés à la comparaison des nuages de débris obtenus par simulation avec les nuages observés lors d'essais d'IHV [116, 117]. En se basant sur des critères de forme des nuages et des vitesses associées, la simulation numérique s'avère généralement conforme aux résultats expérimentaux. Si ces paramètres sont importants, ils ne sont cependant pas susants pour juger de la pertinence des résultats obtenus. Entre autre, la composition interne du nuage est importante. À partir des données de la littérature sur le comportement de l'aluminium sous choc, un modèle est développé pour nos applications, an de restituer correctement la forme, la vitesse, la température et la densité du nuage de débris. Le procédé est ensuite répété pour les autres matériaux d'étude. Comparativement à l'aluminium, le comportement des matériaux composites sous choc est moins bien do55
56CHAPITRE 3. ÉTUDE ET CARACTÉRISATION DES MATÉRIAUX D'ÉTUDE SOUS
CHOC cumenté et une étape préliminaire de caractérisation est nécessaire. À ces ns, des expériences en dynamique rapide en régime impulsionnel ont été menées an d'obtenir les paramètres d'entrée des modèles numériques. Ces expériences reposent sur trois types d'installations : les lanceurs pour déterminer l'équation d'état sous choc des matériaux à haute vitesse (jusqu'à 2 km/s) par la méthode d'impact de plaque. des chocs induits par canon à électrons et par laser pour valider les équations d'états et mettre en évidence des phénomènes d'endommagement et de rupture. Les observables relevées servent de références pour la validation des modèles numériques développés. Une fois les modèles validés, le même processus que pour l'aluminium est réalisé. Ce chapitre décrit les principales étapes et résultats obtenus. 3.1 Comportement de l'aluminium lors d'un IHV
L'aluminium est le matériau métallique le plus couramment utilisé en aérospatiale, sous forme de diérents alliages. Parmi eux, les alliages Al6061-T6 et Al2024 sont les plus représentés. Ces deux alliages ont fait l'objet de nombreux travaux de caractérisation statique et dynamique [118][90] et des modèles numériques ont été développés [119][87][88]. Ces modèles ont été éprouvés dans de nombreuses situations, que ce soit lors d'IHV sur cibles épaisses ou minces ou de chocs laser [72]. De ce fait, l'aluminium 6061 ne fait pas ici l'objet d'essais supplémentaires de caractérisation. On s'intéresse directement à son comportement dans le cas d'impacts sur cibles minces.
3.1.1 Impact MICO à basses vitesses sur des cibles minces aluminium
Dans le cadre de la thèse, des essais d'impacts ont été réalisés avec le lanceur MICO (CEA-CESTA). Ce lanceur, présenté dans le Chapitre 2, a permis de projeter des culbutos en Al6061 à des vitesses de l'ordre de 2,5 km/s. Ces niveaux de vitesses sont en deçà des vitesses d'impact de débris spatiaux et ne permettent pas non plus d'atteindre les seuils de fusion de l'aluminium. Ces expériences peuvent cependant apporter des renseignements quant au comportement dynamique de l'aluminium dans un domaine de vitesse intermédiaire. Lors des tirs, une caméra PCO 4 images HSFC-PRO a été employée, qui observe l'éjection de matière en face arrière du bouclier. Le temps entre les acquisitions est laissé au choix de l'expérimentateur, ce qui permet de les ajuster de sorte à capturer des phénomènes particuliers. Dans notre cas, un laps de temps constant entre image de 3.7 μs a généralement été choisi. La caméra observe un champ d'environ 4,3 cm de largeur pour 3,4 cm de hauteur. La Figure 3.1 est un exemple d'images obtenues lors d'un tir MICO. La cible est xée sur une plaque de plexiglas d'épaisseur 1 cm, trouée en son centre an de laisser passer les fragments de matière. Ces images nous orent une visualisation de côté du nuage de débris éjecté en face arrière de la cible. Ce nuage de débris est composé de deux populations diérentes. La première contient des fragments issus de la cible, qui forment l'enveloppe extérieure du nuage. Cette enveloppe est vide à l'exception de la deuxième population de fragments issus du projectile. Cette idée est peu intuitive au vu des images de la caméra qui mettent à plat les fragments contenus dans un espace 3D. Dans le cas présent, la deuxième population n'est ici composée que d'un unique fragment de taille importante, à l'avant du nuage, car le projectile ne s'est pas fragmenté lors de l'impact malgré son importante déformation plastique. Cette organisation de nuage est 3.1.
Figure 3.1 Visualisation du nuage de débris généré par l'impact à 2.504 km/s d'une bille Al6061 de diamètre 1 mm sur une cible Al6061 d'épaisseur 1 mm avec le lanceur MICO. Le temps entre l'image et l'instant d'impact est explicité en haut à gauche de l'image. Le projectile va de la droite vers la gauche. (a) ts =0.4 mm v0 =2504 m/s (b) ts =1 mm v0 =2427 m/s (c) ts =2 mm v0 =2440 m/s Figure 3.2 Visualisation des nuages de débris généré par l'impact d'une bille Al6061 de diamètre 1 mm sur une cible Al6061 d'épaisseur ts avec le lanceur MICO. Le temps estimé entre l'image et l'instant d'impact est explicité en haut à gauche de l'image. représentative du comportement d'un IHV sur cible mince dans le domaine basse vitesse. Le projectile demeure entier et la taille des fragments de cible est non négligeable, généralement supérieure à la centaine de microns. La Figure 3.2 présente l'impact d'un culbuto Al6061 à des vitesses proches de 2.5 km/s sur des cibles Al6061 d'épaisseurs respectives ts de 0.4 mm, 1 mm et 2 mm. Le débris de taille importante à l'avant du nuage, correspond au reste de projectile. Il est peu déformé par l'impact sur une cible ne de 400 μm, tandis qu'il l'est fortement lors de l'impact sur des cibles plus épaisses. Le projectile ne semble cependant pas être fragmenté et demeure monolithique. Cette conguration d'impact se trouve donc dans le domaine de basse vitesse tel qu'il est dénit dans le chapitre 1. Cette remarque concorde avec l'identication de Piekutowski et al. [49] qui indique une limite de fragmentation de 2.6 km/s, légèrement supérieure à celles des tirs MICO. Le point intéressant concerne la taille des fragments issus de la cible, qui croît avec l'épaisseur de la cible. Ce résultat est important car il indique que, dans le cas de l'aluminium, l'emploi de boucliers plus épais induit une génération de débris de plus en plus grands, qui deviennent à leur tour une menace pour les boucliers
58CHAPITRE 3. ÉTUDE ET CARACTÉRISATION DES MATÉRIAUX D'ÉTUDE SOUS CHOC
Figure 3.3 Impact d'une bille Al6061T6 de diamètre 1 mm à 4.094 km/s sur une cible Al6061 d'épaisseur 400 μm (tir HERMES). suivants. Ce comportement souligne un principe important dans le dimensionnement des W-S, à savoir qu'augmenter l'épaisseur d'un bouclier n'est pas toujours bénéque pour la protection, car le bouclier représente autant une menace que le projectile. Une deuxième remarque concerne le mouvement des débris éjectés derrière la cible. Sur la Figure 3.1, on constate que les débris dans l'enveloppe extérieure se propagent dans la même direction que l'axe d'impact, que l'on qualiera de longitudinale ou axiale. Ces débris se déplacent également dans les directions perpendiculaires à l'axe de tir, que l'on nommera direction transverse ou radiale. L'expansion des nuages de débris est donc un phénomène 3D, qui est à la base du principe de Whipple Shield. À de telles vitesses, une approche analytique à l'aide des polaires de choc montre que les pressions générées par un impact Al/Al sont inférieures à 30 GPa. Ces niveaux de pression demeurent inférieures à ceux générés par l'impact d'un débris spatial. Les vitesses sont alors supérieures à 7 km/s et génèrent des pressions supérieures à 60 GPa pour un impact Al/Al. Dans une telle situation, l'aluminium est soumis à des contraintes induisant presque systématiquement sa fusion, voire sa vaporisation. An d'illustrer ce phénomène, des essais ont été réalisés avec le lanceur HERMES de la société Thiot Ingénierie permettant d'atteindre des vitesses d'impact supérieures. Les tirs qui suivent mettent en ÷uvre des billes Al6061, de diamètre dp =1 mm, projetées à des vitesses entre 4 et 6 km/s. Lors des tirs HERMES, une caméra Phantom V2012 a été employée avec une résolution de 384 pixels par 128 pixels. La taille de la zone enregistrée varie selon les tirs mais vaut approximativement 140 mm de long par 50 mm de haut. Le temps entre deux images, qui varie selon la campagne expérimentale, est de l'ordre de 3.45 μs (290.000 images par secondes) avec cette résolution. La Figure 3.3 présente les images de l'impact d'une bille à 4.1 km/s. La caméra est placée de sorte à observer l'arrivée du projectile, son impact sur la plaque et l'éjection de matière en face arrière. Le nuage de débris présente la même morphologie que pour les tirs avec le lanceur MICO, à la diérence de la partie projectile. On observe non plus un unique fragment mais une population de plus petits débris indiquant la fragmentation du projectile lors de l'impact. Sur la Figure 3.4, on observe le nuage débris éjecté en face arrière de la cible peu de temps après 3.1. Figure 3.4 Images par caméra rapide du nuage de débris environ 4 μs après l'impact d'une bille d'aluminium Al6061 de diamètre 1 mm sur un bouclier Al6061 d'épaisseur 400 μm (tir HERMES). l'impact pour diérentes vitesses v0. Une illumination est observée, générée par le nuage de débris pour les vitesses d'impact les plus élevées. Presque imperceptible pour le tir HE0898 à 5.08 km/s, elle est évidente lors du tir HE0944 à 5.91 km/s. Ce phénomène reète le changement de phase de l'aluminium qui entre en fusion au cours de l'impact. À partir de ces essais, on identie un seuil en vitesse pour la fusion aux alentours de 5 km/s
. La dépendance de ce se
uil
à l'
épaisseur
du
bouclier t
s
et au dia
mètre
du projectile dp
fera l'objet d'une
étud
e approfondie. Cette illumination présente un inconvénient car elle nous empêche de récolter des informations sur la composition du nuage de débris. Nous verrons dans ce qui suit que les travaux de Piekutowski [23] apportent alors des informations utiles concernant la composition du nuage de débris pour des impacts à de telles vitesses. Ainsi, la fusion est un phénomène qui apparait pour des vitesses supérieures à 5 km/s dans le cas d'un impact Al/Al. Ce phénomène joue un rôle important dans le cadre des IHV, car il inuence fortement la taille des objets se trouvant dans le nuage. Il est donc important de savoir dans quelles conditions ce phénomène intervient. Parmi les données à disposition dans la littérature, des équations d'états tabulées ont été mises au point pour l'aluminium. Dans ce qui suit, une analyse, basée sur ces équations d'état, nous fournira des critères an d'évaluer les conditions d'apparition du changement d'état de l'aluminium. Ceci nous fournira des critères supplémentaires pour la corrélation entre les simulations numériques et les résultats expérimentaux.
60CHAPITRE 3. ÉTUDE ET CARACTÉRISATION DES MATÉRIAUX D'ÉTUDE SOUS CHOC 3.1.2 Changement d'état de l'aluminium sous IHV
L'impact entre deux objets génère une élévation de la température dans les matériaux considérés. Comme on l'observe sur les radiographies de la Figure 1.6, le changement d'état de la matière peut intervenir si l'intensité du choc est susamment élevée. Or, ce phénomène de changement d'état de la matière inue fortement sur la composition et l'expansion du nuage de débris. Les contraintes de rupture diminuant avec la température, la taille des fragments solides diminue également. Si le matériau entre en fusion, seule la tension de surface est à vaincre an de former des gouttelettes. Ces gouttelettes sont également de plus en plus nes si la température du liquide augmente. En augmentant encore la température, le matériau peut éventuellement se vaporiser. Dans le contexte des multi-boucliers, la connaissance du changement d'état de la matière est primordiale car la taille des débris inuence la dangerosité du nuage de débris pour les boucliers suivants. En eet, un nuage de gouttelettes liquides et un nuage de débris solides s'étendent de manière diérente. Dans les deux cas, le volume total occupé augmente avec l'expansion du nuage. Cependant, la répartition de la matière dans le nuage de gouttelettes peut être considérée homogène, car ces micro-gouttelettes sont très nombreuses et réparties de manière uniforme. La densité moyenne de matière diminue, car la même quantité de matière occupe un volume grandissant. À l'inverse, la matière au sein des débris solides exerce encore une résistance à la rupture non négligeable. Les débris solides, bien qu'ils s'écartent les uns des autres au cours de l'expansion, ne changent pas de taille et conservent la même masse volumique. Les essais de Piekutowski [23] en sont la parfaite illustration. Sur la Figure 3.6, on observe l'état du nuage de débris à diérents instants [23].
Figure 3.5 Délimitation des population de débris dans une coupe du nuage pour un impact de bille Al2017T4 sur cible Al6061T6 : v=6780 m/s, ts /dp =0.062, dp =9.53 mm.
3.1. COMPORTEMENT DE L'ALUMINIUM LORS D'UN IHV 61
Figure 3.6 Radiographie par rayons X du nuage de débris éjecté en face arrière de cible suite à un impact de bille Al2017T4 sur cible Al6061T6 : v=6780 m/s, ts /dp =0.062, dp =9.53 mm. Les images sont obtenues approximativement 6 μs et 19 μs après l'impact [23]. A l'instant le plus avancé, on constate sur la Figure 3.5 que la répartition de la matière dans la bulle de matière fondue (zone B sur Figure 3.5) demeure homogène 19 μs après l'impact. La diminution de la densité de matière est également visible par la diminution du contraste dans cette zone. En observant les régions C ou D, composée de débris solides, on constate que la matière demeure agglomérée en paquets de matière. Il est donc important de comprendre le scénario conduisant au changement d'état de la matière. Dans le diagramme Pression-Volume (ou diagramme P-V, Figure 3.7), la matière de masse volumique standard ρ0 est compressée sous choc à la pression PH et passe de l'état 1 à l'état 2 se trouvant sur la courbe d'Hugoniot du matériau. Le matériau est ensuite ramené de manière adiabatique à pression ambiante (état 3 sur la Figure 3.7) par les ondes de détente. La compression sous choc est un phénomène brutal non isentropique, tandis que la détente est un processus isentropique. Cela signie que de l'entropie a été créée durant le processus, qui se convertit en chaleur. D'après ZelDovich [120], l'énergie interne créée lors de la compression sous choc est égale à la surface du triangle orange (Figure 3.7) tandis que l'énergie rendue lors de l'expansion du matériau correspond à l'aire sous l'adiabatique dynamique dans le diagramme P-V. En accord avec le principe de Carnot qui spécie que toute transformation d'un système thermodynamique s'eectue avec augmentation de l'entropie globale, l'aire sous l'adiabatique est irrémédiablement inférieure à celle sous le triangle orange (Figure 3.7). Elle est également proportionnelle à la chaleur résiduelle dans le matériau. Selon la quantité de chaleur dans le matériau, la fusion et/ou la vaporisation du matériau peut avoir lieu. Dans l'analyse qui suit, on considère le travail de la pression hydrostatique dans le changement d'état. Du fait des niveaux de vitesses en jeu, le travail de la pression s'avère souvent prépondérant sur celui du déviateur des contraintes. Moyennant une connaissance assez avancée de l'équation d'état d'un matériau, il est alors possible d'évaluer quelles congurations d'impact induisent le changement d'état de la matière. Intéressons nous au cas de l'aluminium dans un contexte 1D. Une onde de choc plane se propage et compresse le matériau. Ce dernier est ensuite ramené à pression ambiante par l'onde de détente créée lors de la réexion de l'onde de choc à la surface libre. En se basant sur les équations d'état tabulées BLF développées par Fortov et al. [87], on trace dans un même graphique pression/température (Figure 3.8) les courbes isochores du matériau. La fusion de l'aluminium s'accompagne d'une forte augmentation du volume occupé, ce qui se traduit sur l'isochore par une rupture de pente dans la courbe de pression/température. Ces ruptures de pentes, extraites de plusieurs isochores, forment une courbe qui corres-
62CHAPITRE 3. ÉTUDE ET CARACTÉRISATION DES MATÉRIAUX D'ÉTUDE SOUS CHOC
Hugoniot Isentrope de détente Pression 2 1 Volume massique 3
Figure 3.7 Diagramme pression-volume des états de la matière durant un impact. La zone orange représente l'énergie emmagasinée au cours du choc et l'aire bleue l'énergie restituée au cours de la détente. pond à celle d'évolution de la température de fusion avec la température, selon la formule de Clapeyron : dPsolide→liquide dT = δHsolide→liquide T δvsolide→liquide (3.1) Cette courbe croise la droite de pression nulle pour une température de 933 K, qui correspond ainsi à la température de fusion à pression nulle. Lors d'un impact, le matériau atteint un état sous choc de la courbe d'Hugoniot, puis suit l'isentrope de détente partant de cet état de choc pour revenir à pression ambiante. On trace dans la Figure 3.10 la courbe de fusion, la courbe d'Hugoniot ainsi que les isentropes de détente depuis plusieurs états de choc de l'Hugoniot. Trois cas se distinguent : Cas 1 : La température atteinte sous choc est supérieure ou égale à la température de fusion à la pression sous choc (T2 ≥ Tf us (PH )). Dans ce cas, le matériau atteint des conditions thermodynamiques susamment élevées pour passer à l'état liquide sous choc. Dans le cas de l'aluminium, ces conditions sont rencontrées si la pression PH sous choc est supérieure à 105 GPa dans le cas de l'EOS BLF. Cas 2 : La température sous choc n'atteint pas la température de fusion, mais la température à pression ambiante atteinte par l'isentrope depuis l'état sous choc est supérieure à la température de fusion à pression ambiante (TH < Tf us (PH ) et T3 ≥ Tf us (P = 0)). Dans ce cas, le matériau ne change pas d'état sous choc mais passe à l'état liquide en détente. Pour l'aluminium, la fusion en détente intervient dès lors que la pression sous choc atteint 65 GPa. Cas 3 : TH < Tf us (P2 ) et T3 < Tf us (P = 0) : La température ne dépasse jamais la température de fusion. Le matériau demeure à l'état solide lors de l'impact. Ainsi, la fusion lors de la détente et la fusion sous choc pour l'aluminium interviennent 8 ·1010 1.5 4
2 1,000
2,000 Fusion
sous choc 1 Fusion sous choc/détente 0.5 liquide 0 ·1011 2 solide 6 Pression [Pa] 63 COMPORTEMENT DE L'ALUMINIUM LORS D'UN IHV Pression [Pa] 3.1. 0 3,000 0 2,000 Température [K] 4,000 6,000 Vitesse matérielle [m/s]
Figure 3.8 Tracé de plusieurs isochores Figure 3.9 Tracé de la courbe d'Hu- dans un diagramme P − T pour l'équation goniot dans un diagramme pression-vitesse d'état tabulée BLF [87] de l'aluminium pur. matérielle P − u pour l'équation d'état taLa courbe noire souligne une des isochores. bulée BLF [87] de l'aluminium pur.
·1011 2 1.8 1.6 Pression [Pa] 1.4 Seuil de pression fusion sous choc 1.2 1 0.8 Seuil de pression fusion sous choc/détente 0.6 solide 0.4 0.2 0 liquide 933 K 0 1,000 2,000 3,000 4,000 5,000 6,000 Température [K]
Figure 3.10 Tracé de la courbe d'Hugoniot (courbe rouge) et des isentropes de détente (courbes bleues, vertes et oranges) issues de divers points de choc dans un diagramme P − T pour l'équation d'état tabulée BLF [87] de l'aluminium pur.
64CHAPITRE 3. ÉTUDE ET CARACTÉRISATION DES MATÉRIAUX D'ÉTUDE SOUS CHOC
pour des pressions sous choc de 65 et 105 GPa respectivement. L'aluminium change d'état pour une température supérieure ou égale à 933 K après retour à pression nulle. Ce critère sert d'indicateur dans les simulations pour évaluer la proportion de matière à l'état liquide. À partir de la courbe d'Hugoniot dans le diagramme P-u (Figure 3.9), il est possible de relier la pression sous choc à la vitesse matérielle de l'aluminium, à savoir 2600 m/s et 3800 m/s. En considérant un impact de projectile aluminium sur cible aluminium, la vitesse de projectile nécessaire pour induire la fusion en détente et sous choc est donc respectivement de v0 =2x2600=5200 m/s et v0 =2x3800=7600 m/s. Ces critères se basent sur l'équation d'état tabulée BLF de l'aluminium pur. Ils ne sont donc pas applicables à n'importe quel modèle. L'équation d'état de Mie-Grüneisen ne prend pas en compte le changement d'état mais demeure appropriée pour la phase solide [121]. Si les résultats sont représentatifs jusqu'à l'état liquide, alors le seuil de température résiduelle de 933 K marquant le passage à l'état liquide est potentiellement encore valide. Dans la réalité, les projectiles impactant le premier bouclier ont des dimensions nies. Contrairement à la théorie 1D, des ondes de détente générées par la propagation des ondes de choc dans les trois dimensions, ainsi que par la réexion des ondes de choc sur les surfaces libres du projectile, viennent atténuer les ondes de choc. Le niveau de pression prédit par la théorie 1D n'est généralement observé qu'au niveau de la zone d'impact. Il est donc possible qu'une partie du projectile change d'état, tandis qu'une autre partie demeure à l'état solide. Par conséquent, la vitesse d'impact nécessaire pour atteindre un certain seuil de pression sous choc est plus importante que celle indiquée par la théorie 1D. Due à la complexité des phénomènes hydrodynamiques en jeu dans un problème 2D/3D, le recours à la simulation numérique est nécessaire pour pouvoir tirer des conclusions quantitatives. De cette analyse, on retient surtout que le seuil de température de 933 K permet d'identier avec l'EOS BLF si l'aluminium a changé d'état au cours de l'impact. 3.1.3 Modélisation de l'aluminium et validation des modèles sur des cas d'IHV
L'aluminium Al6061-T6 étant largement impliqué dans les applications défenses et spatiales, son équation d'état et sa loi de comportement sont connues et sa modélisation numérique est plutôt bien validée par les expériences. Une série d'IHV ont été réalisés par A.J. Piekutowski [23] dans lesquelles des billes d'aluminium 2017 de diérents diamètres sont projetées contre des cibles nes en aluminium 6061-T6 d'épaisseurs variables pour des vitesses allant de 3.8 km/s à 7.2 km/s. Des radiographies à haute dénition montrent le projectile avant impact ainsi que le nuage de débris généré environ 6 et 19 μs après impact. L'essai 1352, issu de ces travaux, est utilisé comme tir de comparaison, où une bille en Al2017 de diamètre 9.53 mm impacte une cible en Al6061-T6 de 2.225 mm d'épaisseur à 6.64 km/s en impact incident. On s'intéresse à la capacité des codes HESIONE et LS-DYNA à simuler la création, puis la propagation du nuage de débris. Ces simulations représentent par la même l'opportunité de résoudre des problèmes numériques liés aux méthodes utilisées en prévision de la modélisation des matériaux composites dont les modèles, moins éprouvés que ceux de l'aluminium, génèreront de nouvelles dicultés.
Simulations des IHV en méthode eulérienne sous HESIONE
La méthode eulérienne d'HESIONE ne permet l'utilisation que de modèles isotropes. Dans les travaux présentés ici, seuls des tirs en incidence normale sont étudiés en re- 3.1. COMPORTEMENT DE L'ALUMINIUM LORS D'UN IHV
Paramètre Y0 [GP a] Ymax [GP a] G0 [GP a] G0p [−] Al6061 Al2024 Paramètre 0.4 0.26 0.5 0.76 27.6 28.6 1.79952 1.86472 ρ0 [kg.m−3 ] β [−] n [−] i [−] 2703 2785 5500 310 0.1 0.185 0 0 Al6061 Al2024 65 G0T /G0 [P a.K −1 ] -1.70016.10−7 -1.76176.10−7 Table 3.1 Paramètres du modèle SCG pour l'aluminium 6061-T6 [72] et l'aluminium
2024
[60]. as [M P a] α0 [−] η [P a/s]
αlim
[
−
] 180 1.000
3 0.54 1.05
Table 3.2 Paramètres du modèle d'endommagement de Johnson pour l'aluminium 6061-T6 [72].
présentation 2D axi-symétrique. Le milieu ambiant est considéré comme étant le vide. L'espace dans lequel va se propager la matière est découpé en une grille eulérienne dont les cases font 5 μm de côté. An de limiter les temps de calcul, la simulation est poursuivie jusqu'à 7 μs après impact, an de pouvoir comparer les résultats de simulation avec la première image de nuage sur les radiographies de Piekutowski. Le code HESIONE dispose de nombreuses équations d'états tabulées BLF et SESAME. On emploie l'EOS tabulée BLF de l'aluminium pur, sur laquelle s'est basée l'analyse précédente. L'EOS tabulée a pour avantage de considérer le comportement des matériaux ayant changé d'état et semble plus adaptée pour nos problématiques où le changement d'état est quasi-systématique. Le comportement déviatorique est géré par un modèle SCG dont les paramètres sont détaillés dans le Tableau 3.1. Concernant la rupture en tension, un modèle d'endommagement de Johnson a été calibré par Jodar et al., qui a fourni des résultats probants dans des applications d'IHV ou de choc laser [72] pour représenter la croissance des pores (Tableau 3.2). Une fois le critère de rupture validé, deux traitements peuvent être envisagés. Le premier est la cavitation, qui consiste à introduire du vide dans les mailles rompues. Le deuxième consiste à imposer une pression et un déviateur des contraintes nuls en tension (traitement nommé PSIMPOSE0 par la suite) dans la maille. Ces deux traitements assurent la conservation de la masse ainsi que la recompaction de la matière lorsqu'elle est recompréssée. An d'évaluer les bienfaits de ces deux traitements, on compare les résultats de deux simulations pour l'essai 1352 de Piekutowski [23]. On ne dispose pas de paramètres pour l'aluminium 2017. Sa composition chimique étant proche de l'alliage 2024, on utilise les données sur cet alliage provenant de Steinberg [122]. Concernant le traitement de l'endommagement en tension, la Figure 3.11 compare les masses volumiques dans le nuage de débris obtenues en employant la mise à zéro de la pression et du déviateur des contraintes (PSIMPOSE0) d'une part, et la cavitation d'autre part. À première vue, les deux nuages sont similaires en forme et en vitesse. Cependant, la répartition de la matière à l'intérieur du nuage dière. La cavitation insère du vide une fois le seuil distension dépassé. Ce critère est le plus respectueux
66CHAPITRE 3. ÉTUDE ET CARACTÉRISATION DES MATÉRIAUX D'ÉTUDE SOUS CHOC
Figure 3.11 Comparaison de la masse volumique au sein du nuage de débris sous HESIONE (6 μs après impact) en employant la cavitation (en haut) ou la mise à zéro de la pression et du déviateur des contraintes (en bas) pour un impact à 6.64 km/s d'une bille en Al2017 de diamètre 9.53 mm sur une cible en Al6061-T6 d'épaisseur 2.225 mm. de la théorie des chocs, car le retour à pression nulle de la matière endommagée se fait naturellement par adaptation d'impédance avec le vide nouvellement formé. Cependant, si la cavitation ore des résultats représentatifs pour la matière à l'état solide, elle l'est moins lorsque la matière change d'état. Les radiographies de Piekutowski [23] montrent bien que le domaine où la matière a changé d'état conserve une répartition homogène de la matière (Figure 3.6). Pour sa part, la cavitation, suivie de la reconstruction d'interface, maintient la matière agglomérée en paquets de matière de masse volumique supérieure à 2400 kg/m3, proche de la masse volumique initiale. La taille de ces agglomérats est un résultat non convergé, car le choix de la taille caractéristique des mailles du maillage impacte directement la répartition de matière. De l'autre côté, avec la mise à zéro de la pression et du déviateur de contrainte en tension (PSIMPOSE0), aucun vide n'est introduit. Aucun eort ne s'oppose à l'expansion de la matière qui peut atteindre des seuils de masse volumique extrêmement faibles, comme l'atteste la Figure 3.11, où la masse volumique est proche de zéro dans les zones endommagées en tension. Cette méthode a l'avantage de conserver une grande majorité de mailles pures et donc de limiter la création d'interfaces. Notons que dans les deux cas, la répartition de masse globale est similaire, mais la seconde méthode semble plus représentative de l'expansion homogène de matière liquide. Cependant, le fait d'imposer une variable thermodynamique à zéro lors de la rupture en tension rompt avec l'état de la matière tel qu'il est dicté par l'équation d'état. Une fois l 'endommagement en tension appliqué, les variables thermodynamiques, telles que la température dans la matière endommagée, sont à considérer avec précaution. Dans la pratique, c'est pourtant cette dernière méthode qui fournit les résultats les plus probants en termes de température. Concernant la température dans le nuage, une aberration semble apparaitre sous HESIONE lorsque la cavitation est employée. Comme
3.1. COMPORTEMENT DE L'ALUMINIUM LORS D'UN IHV 67
Figure 3.12 Comparaison de la température au sein du nuage de débris sous HESIONE (6 μs après impact) en employant la cavitation (en haut) ou la mise à zéro de la pression et du déviateur des contraintes (en bas) pour un impact à 6.64 km/s d'une bille en Al2017 de diamètre 9.53 mm sur une cible en Al6061-T6 d'épaisseur 2.225 mm. expliqué précédemment, la matière est morcelée dans le nuage de débris suite à l'endommagement par cavitation.
Le nuage comprend des petits agglomérats de matière qui se déplacent sans interagir entre eux. On observe pourtant, en dépit d'un état d'équilibre de la matière à pression quasi-nulle, que la température diminue progressivement au cours de la propagation du nuage jusqu'à atteindre des niveaux extrêmement faibles, parfois inférieures à la température ambiante (Figure 3.12). Le calcul ne prenant pas en compte les transferts thermiques et ceux-ci étant négligeables sur une si courte échelle de temps, l'origine de ce phénomène demeure inconnue. La phase de projection intervenant après la résolution lagrangienne à chaque pas de temps de calcul pourrait être en cause. Elle trainerait une erreur lors de la pondération sur chaque maille et à chaque pas de temps. Ce phénomène est inexistant avec le traitement PSIMPOSE0. L'instant de fragmentation ayant lieu avant ce phénomène, il semble que cette erreur inue peu sur l'état du nuage de débris en se développant, comme on peut le voir sur la Figure 3.11, qui montre deux répartitions de masse en moyenne similaire sur une zone. On se tournera dans la mesure du possible vers le traitement PSIMPOSE0 dans les simulations mais la cavitation s'avère généralement plus ecace en terme de temps de calcul. Intéressons-nous maintenant au modèle d'endommagement en lui-même. La Figure 3.13 compare le nuage de débris obtenus en simulation avec les images de radiographies de Piekutowski [23]. Malgré l'emploi du traitement PSIMPOSE0, on observe dans la partie avant du projectile que la matière est plus dense par parcelles. Ce morcellement est le résultat de l'historique de la rupture en tension de la matière. Le modèle de Johnson a l'avantage d'être représentatif de la nucléation des pores dans les solides ductiles. Cependant, l'ouverture des pores génère des zones de pression nulle, d'où se propagent des ondes de détente qui relaxent la matière, ce qui empêche l'endommagement simultanée dans les zones alentours. Ce phénomène d'occultation n'est cependant pas nécessairement représentatif dans un milieu où intervient le changement d'état. En eet, on observe que
68CHAPITRE 3. ÉTUDE ET CARACTÉRISATION DES MATÉRIAUX D'ÉTUDE SOUS CHOC
Figure 3.13 Comparaison de la masse volumique du nuage de débris sous HESIONE (6 μs après impact) pour un impact à 6.64 km/s d'une bille en Al2017 de diamètre 9.53 mm sur une cible en Al6061-T6 d'épaisseur 2.225 mm avec les images de radiographie [23] la résistance en tension de l'aluminium diminue avec son échauement et augmente avec la vitesse de déformation. Si à l'état ambiant, elle est de
l'ordre de
1.2 GPa [89, 123], on
peut la considérer quasi-nulle
lorsque
l'aluminium est en fusion
. Or, le fait que la matière soit entrée en fusion ou non est un phénomène décidée dès le passage du choc. Par conséquent, le modèle de Johnson s'avère inadapté au contexte, car son seuil de rupture en tension ne prend pas en compte l'écha ement de la matière et la diminution de la résistance en tension associée. On distingue ici le besoin d'un critère de rupture dépendant de la température ou de l'énergie interne. La Figure 3.14 illustre la diminution de la résistance à la rupture en tension avec l'échauement de la matière pour l'aluminium. Les données sont issues des travaux de Su et al. [124], où des éprouvettes Al6061 sont chauées jusqu'à des seuils de température entre 400 K et 900 K puis mises en traction. Ces essais fournissent une courbe de la contrainte limite en tension en fonction de la température, que l'on ramène en fonction de l'énergie interne (Figure 3.14) en identiant les couples énergie interne/température des tables BLF. On compare sur la Figure 3.15-a les cartographies en masse volumique des deux modèles. Avec le modèle d'endommagement dépendant de l'énergie, la répartition massique est plus homogène car la matière échauffée présente une résistance à la traction quasi-nulle du fait de son échauement. An d'illustrer cette idée, on réalise une troisième simulation en employant une contrainte à la rupture en tension nulle (Figure 3.15-b). Le nuage obtenu est presque similaire à celui prenant en compte l'eet de la température sur la rupture en tension. Ce modèle permet ainsi d'être plus représentatif de l'expansion de la matière fondue tout en conservant un critère acceptable pour la matière à l'état solide. Du point de vue numérique, on constate qu'il permet d'éviter des problèmes numériques tel que l'agglomérat de matière dense au niveau de l'axe de symétrie observé avec le modèle de Johnson (Figure 3.15). Ce modèle s'avérera utile pour simuler les impacts très hautes vitesses, où le nuage est principalement composé de matière fondue. An de s'assurer de la validité de ce modèle, on le confronte à d'autres cas d'impact avec un ratio ts /dp diérent (Figure 3.16 et 3.18).
3.1. I ·109 1.2 σseuil [Pa] 1 0.8 0.6 0.4 0.2 0 0 1 2 3 4 5 Energie interne [J] 6 7 8 ·105
Figure 3.14 Courbe d'évolution de la contrainte limite en tension avec l'énergie interne. Les marqueurs correspondent aux données expérimentales issues de [124] tandis que la courbe rouge est l'identication employée en simulation. Figure 3.15 Comparaison sous HESIONE de la masse volumique au sein du nuage de débris (6 μs après impact) généré par l'impact à 6.64 km/s d'une bille en Al2017 de diamètre 9.53 mm sur une cible en Al6061-T6 d'épaisseur 2.225 mm : a) contrainte limite en tension dépendant de l'énergie interne (en haut) ou modèle de Johnson (en bas) ; b) contrainte limite en tension dépendant de l'énergie interne (en haut) ou une contrainte limite en tension nulle (en bas)
70CHAPITRE 3. ÉTUDE ET CARACTÉRISATION DES MATÉRIAUX D'ÉTUDE SOUS CHOC
On observe systématiquement une corrélation acceptable sur la forme du nuage. Proche de l'axe d'impact, les images de radiographies montrent la présence de matière mais qui se trouve dans la réalité sur une couronne, ce qui est bien restitué par la simulation. Sur ces gures, on ache également la température en simulation en mettant en évidence le seuil de 933 K identié précédemment. Moyennant l'extension du nuage, on constate que la zone rouge est en accord avec la zone de matière en fusion observable sur l'image de radiographie à un temps plus avancé. En délaissant le modèle de Johnson, on a cependant sacrié en précision sur le comportement de la matière solide. Le modèle de Johnson s'avère généralement plus précis pour estimer la présence de débris solides. La Figure 3.19 présente ainsi les résultats de simulation d'un impact de bille de diamètre 9.53 mm sur une cible d'épaisseur 467 μm à 4,71 km/s. Pour un ratio de ts /dp valant 0.049 et une vitesse aussi faible, le projectile n'est que peu fragmenté, comme l'indique la présence d'un gros fragment de projectile visible sur les images de radiographie (Figure 3.19). Concernant la simulation, les deux modèles fournissent forme de nuage très concordante avec les images expérimentales, bien que le modèle de rupture dépendant de la température soit le plus représentatif. La taille du fragment principal est assez bien restituée avec les deux modèles. La bulle de matière écaillée à l'arrière est composée d'une enveloppe de débris solides. Cette caractéristique est bien mieux reproduite par le modèle de Johnson qui forme une coque de matière dense. Pour le modèle prenant en compte la température, la matière est répartie de manière disparate dans tout le volume avec des masses volumiques plus faibles.
| 30,894
|
34/halshs.archives-ouvertes.fr-halshs-03214961-document.txt_5
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 8,502
| 15,434
|
F - La disposition du texte, très soigneuse, tient compte d'une place réservée au milieu de la pierre en prévision de quelque adjonction, telle qu'un blason. Deux croix latines juxtaposées coupent la première ligne en son milieu. Ponctuation régulière par trois points verticaux entre chaque mot. Les onciales, très nombreuses, sont cependant sensiblement différentes de celles que l'on rencontre à la même époque sur les pierres d'origine toulousaine. Les caractères sont plus resserrés; les E, fermés, voient leur barre médiane redoublée, les O sont en navette. G - L'abréviation du B au début de la troisième ligne entraine la transcription novemberi au lieu du classique novembris. L'inversion et in hoc suo jacet monumento est certainement voulue mais ne répond à aucune exigence métrique. H - La formule de datation Anno Domini nostri Jhesu Christi est très peu usitée dans les ins¬ criptions de Toulouse ou de la région toulousaine161. Elle n'est pas non plus habituelle dans l'épigraphie de cette époque. I - Un Arnaldus d'Escalquinquis est cité comme consul dans un acte du 6 mars 1222 n. st.162. Un Ernandus de Calgiens figure parmi les citoyens de Toulouse dans un autre acte d'avril 1229 n. st. et l'on retrouve, sans précision de fonction ni de dignité, un A rnaldus de Escalquencis le 27 janvier 1248 n. st.163. Le même personnage est cité à Toulouse dans plusieurs actes respectivement datés des 3 mai, 21 mai et 5 juin 1248164. Parmi les jurisconsultes de Toulouse un Arnaldus de Escalcens figure dans une consultation du 21 mai 1251, avec son fils Guillaume. C'est vraisemblablement ce même Guillaume que désigne le W. de Escalquencis, juris iti cité le 10 mars 1252 n. st.165. Vers 1265 on retrouve un autre Arnaldus de Escarquencis, capitularius urbis (un des deux capitouls)166. Escalquens est une commune de Haute-Garonne, située au Sud-Est de Toulouse. ROSCHACH,M/see de Toulouse. Catalogue, n° 731 [texte]. RACHOU, Catalogue, n° 544, p. 299 [id.]. 84 1258 - Fragment lapidaire (pl. XLV, fig. 89) A - Epitaphe d'un familier. B - Pierre (inventaire n° 735
). Provenance
in
déterminée. 161.
I
bid., 162. 163. 164. 165. 166. Layettes, Voir l'épitaphe DEVIC III,et II, n°VAISSETE, VAISSETE n°3653, 3939, de1994, Bernard p. 131,p.Histoire 27 op.a;n° 153bcit., deetaSuc 3660, etgénérale DEVIC t. III, VIII, (inscription p.n°etcol. 28de 3630, VAISSETE, a;n° Languedoc, 1552. p.86). 3680, 20 b.op. p.t. 34VIII, cit.,b. t.col. VIII, 757.col. 1 293-1294. F - Cadre double et lignes tracés à l'avance. Ponctuation par trois points verticaux entre chaque mot. Une conjonction et deux enclavements. Onciales dominantes dans la partie du texte conservée. Croix hampée finale. H - Ce qui reste de l'inscription laisse supposer un formulaire comparable à celui des précédentes épitaphes, avec quantième et mois au début et année de l'Incarnation en fin de texte. RACHOU, Catalogué, n° 735, p. 300 [texte]. 85 1260 n. st., 2-6 mars - Epitaphe d'Isarn Serra (pl. XLV, fig. 90) A - Epitaphe d'un marchand. B - Pierre (inventaire n° 543). Provient des Jacobins. C - Pierre de 59 x 38 cm. Hauteur des lettres : 2,9 cm. D - 1. ANNO • DOMINI M0 • CC • L • I[X] [•••] 2. NONAS • MARCII • OBIIT • [IS] 3. ARNVS • SERRA • MERCA 4. TOR ■ CVIVS • ANIMA • VIVAT • 5. IN • CHRISTO AMEN ■ O TV • QVI ME 6. ASPICIS • MEMENTO • MEI 7. QVOD • SVM • ERIS • QVOD ■ ES • FVI • ROGO • TE 8. PER'DEVM • VT • DICAS ■ PRO • ANIMA • MEA ■ PATER ■ NOSTER E- L'an du Seigneur 1259 [1260 n. st.], des nones de mars, mourut Isarn Serra marchand. Que son âme vive en Christ, amen. Toi qui me regardes, souviens-toi de moi. Ce que je suis, tu le seras ; ce que tu es, je le fus. Par Dieu je te prie de dire pour mon âme : Notre Père. 126 Musée des Augustins (galerie lapidaire j F - Cadre double et lignes tracés à l'avance. Ponctuation par un point médian entre chaque mot. Aucune liaison de lettres. Les onciales dominent mais ne sont pas fermées. G - La partie droite du texte, brisée, ne permet pas de lire avec certitude le chiffre des unités de l'année. Les fragments de lettres conservés après le L ne peuvent correspondre qu'à un I et un X. Les nones de mars vont du 2 au 7. La place disponible en fin de la première ligne peut correspondre à un pridie (6 mars) ou à plusieurs unités, soit III, IIII, V ou VI. H - La partie du texte propre à l'obituaire est suivie d'un formulaire développé qui comprend deux sortes d'éléments. Le premier, à caractère liturgique, convie le fidèle à prier pour le repos de l'âme du défunt : Cujus anima vivat in Christo, amen et Rogo te per Deum ut dicas pro anima mea Pater noster. Si l'état actuel des relevés épigraphiques des VlIIe-XIIIe s. ne permet de fournir qu'un exemple de la première formule (à Narbonne en 1289), la demande de prières avec mention du Pater est fréquente dans les épitaphes, principalement au XlIIe s. Sur quarante-trois inscriptions tumulaires on la relève cinq fois aux Xle et Xlle s. et trente-huit fois au XlIIe. Le second élément de cette épitaphe, à caractère méditatif, est introduit par l'apostrophe au lecteur O tu qui me aspicis et invite le chrétien à réfléchir sur le sens qu'il doit donner à sa vie : Quod sum eris quod es fui. Si l'on se tient rigoureu¬ sement à ces termes ou à leur équivalent Quod es fui quod sum eris, on constate que la formule est employée à partir de 1 184 et qu'elle se trouve essentiellement en Languedoc et en Roussillon : à Narbonne en 1 184 et 1 199 ; à Nîmes aux XlIe-XIIIe s. ; en 1 228, 1 234 et 1235 à Béziers ; en 1246 à Elne ; en 1280 à Villefranche-de-Conflent ; en 1281 à Villeneuvelès-Maguelonne ; en 1289 à Narbonne; en 1298 à Montesquieu, ainsi qu'en Limousin à Aureil et Limoges au XlIIe s. En dehors de cette région, on la trouve encore à Verdun-surMeuse en 1204, sous la forme versifiée : Quod es fui, Bartholomeus abbas, quod sum eris. La même formule est traduite en occitan à Montauban en 1242, et en langue d'oïl à Baulneen-Brie en 1255, à Andelot en 1277. Des formules proches peuvent être citées à partir du IXe s. (Beauvais, 826, Saint-Alban de Mayence, Xe s., Saint-Denis, Xle s.), et elles se retrouvent également en Espagne (à Las Huelgas près de Burgos en 1194 : Sum quod eris quod es tempore fui), où l'on emploie aussi des expressions voisines, comme à Oviedo en 1129, 1207, 1317, 1323 Il existe manifestement des formulaires couramment employés en Narbonnaise, car on retrouve les formules mêmes de l'épitaphe d'Isarn Serra dans l'épitaphe de Riscovende de Podalières, au Musée de Narbonne, en 1289 : Cujus anima, per misericordiam Dei, vivat in Christo. F - Lignes tracées à l'avance. Ponctuation par un point médian avant le millésime et par trois points en fin de texte. Un emplacement, vraisemblablement destiné à recevoir des armoiries ou quelque sculpture, a été réservé au milieu de la pierre. Les onciales dominent et les C (hormis ceux de la date), les E et les M sont fermés par des déliés. L aspect général de l'écriture montre que ce texte est moins soigné que ne le sont les autres inscriptions de la même époque. Les écartements entre les lettres d'un même mot sont très inégaux, inégalités que ne peut justifier l'état du support (obiit, operarius et fine par exemple). G - Aucune règle ne préside à la coupure des mots : canon/icus, Th/olose, i/n. H - Si la facture de l'inscription est comparable à celles des textes précédents, le formulaire est différent. La formule Anno Domini nostri Jhesu Christi ne se retrouve que dans l'épitaphe d'Arnaud d'Escalquens qui fut inhumé aux Jacobins. Cette même épitaphe inclut également la même formule de demande de prières : Cujus anima sine fine requiescat in pace, amen et réserve au centre de son support un même emplacement167. La parenté entre ces deux inscriptions laisse penser que les deux épitaphes proviennent d'un même atelier. 167. Voir supra, inscription 83. 128 Musée des Augustins (galerie lapidaire) DU MEGE, Description, n° 633 [texte]. CASTELLANE,/«scnp//om du Ve au XVIe s., p. 130-131-, pl. V, fig. 4 [texte, fac-sim.]. ROSCHACH, Musée de Toulouse. Catalogue, n° 715 [texte]. RACHOU, Catalogue, n° 524, p. 217 [id.]. 87 1262 n. st., 14 mars - Epitaphe d'Hélie H. (pl. XLVI, fig. 92) A - Epitaphe d'un chanoine, archidiacre. B - Pierre de provenance indéterminée, non inventoriée par Rachou. C - Pierre de 33,3 x 16,2 cm. Hauteur des lettres : 2,6 cm. D - 1. : ANNO : DOMINI : M° : CC° : LX° : 1° 2. : II0 : IDVS : MARTII : OBIIT : HELIAS : H[]I : 3. : CANONICVS : ET : ARCHIDIACONVS. E -
L'an du Seigneur 1261,1e 2 des ides de mars [14 mars 1262 n. st.], mourut Hélie H, chanoine et archidiacre. F - Lignes tracées à l'avance. Ponctuation par deux points verticaux entre chaque mot. Ecriture sensiblement différente de celle des précédentes inscriptions. Les lettres sont plus arrondies et davantage écartées les unes des autres. Les onciales, tout aussi abondantes, n'ont pas tout à fait le même ductus. Les / sont perlés, à l'exception du / de idus. G - Le mot martii a été abrégé par suspension. L'abréviation du nom du défunt par un H et un I suscrits n'est pas suffisante pour l'identification du personnage ( Henrici, Hervei?). H - Formulaire propre à l'obituaire, commençant ici par l'année de l'Incarnation suivie du quantième des ides. Inédit. 88 1262, 2 octobre - Epitaphe de B[ernard] du Pont (pl. XLVII, fig. 93) A - Epitaphe d'un chanoine. B - Marbre (inventaire n° 738). Provenance indéterminée. C - Marbre de 29 x 26 cm. Hauteur des lettres : 2,4 cm. D- 1. : ANNO : AB INCARNAT 2. IONE : DOMINI : M0 CC° LXII0 VI0
: 3. NONAS
:
OCT
OBRIS
: 0 129
Musée des
Augustin
s (galerie
lapid
aire) 4. BIIT : B[ERNARD
]
VS : DE : PONTE
CA
5. NONICVS
: ISTIVS : LOCI : + E- L'an de l'incarnation du Seigneur 1262, le 6 des nones d'octobre [2 octobre], mourut B[ernard] du Pont, chanoine de ce lieu + F - Cadre et lignes tracés à l'avance. Ponctuation par deux ou trois points verticaux entre presque tous les mots. Croix grecque en fin de texte. Généralisation des onciales. Les C, les E, les M, les V sont fermés. H - Formulaire propre à l'obituaire. I - La famille de Ponte compte plusieurs de ses membres parmi les consuls de Toulouse. LUCAS, Catalogue, n° 199 [texte]. DU MEGE, Notice des tableaux, n° 202 [ztf.]. Le mêm q, Notice des monuments, n° 227 [id.]. Le mêm q, Description, n° 634 [id.]. RACHOU, Catalogue, n° 738, p. 301 [id.]. 89 1263, 14 octobre - Epitaphe de Bernard de Gensac (pl. XLVII, fig. 94) A - Epitaphe d'un abbé. B - Marbre (inventaire n° 517). Cette pierre se trouvait primitivement dans la chapelle funéraire dédiée à Notre-Dame-du-Salut, sur le côté de la galerie orientale du cloître de Saint-Sernin. Laliondès écrit que cette dalle de marbre avait été réemployée à la fin du XIXe s. et servait de marche d'escalier à une maison sise rue des Cuves-Saint-Sernin. F - L'inscription est gravée au revers du couvercle du sarcophage et ne pouvait donc être lue une fois le tombeau fermé. Le texte se développe entre deux lignes gravées au pourtour du 130 Musée des Augustins (galerie lapidaire) couvercle, réservant ainsi un grand emplacement sur lequel a été tracée une crosse abbatiale. L'épigraphe commence par une croix grecque placée au-dessus de la volute de cette crosse. La ponctuation, qui paraît régulière, est marquée par deux points entre chaque mot. Les onciales, très nombreuses, sont tracées avec pleins et déliés. H - Formulaire de l'obituaire complété par une prière et la mention du Pater. I - Selon les auteurs de Gallia christiana, Bernard de Gensac aurait été élu abbé en 1234168. Un acte daté de juin 1255 le cite comme abbé de Saint-Sernin169. Le nécrologe de la basilique fait bien mention de son décès le 2 des ides d'octobre170, Devic et Vaissete précisent qu'il fut inhumé sous l'autel de la chapelle Notre-Dame-du-Salut171.
DOUAIS, La pierre tombale de Bernard de Gensac, p. 65 [texte, commentaire], LAHONDES, Trois pierres tumulaires, p. 331-332, fig. 17-19 [id.]. RACHOU, Catalogue, n° 517, p. 214 [texte]. REY, Le cloître de Saint-Sernin, p. 67-68 [texte fautif]. 90 [après 1265] - Epitaphe de Raimond de Foix (pl. XLVIII, fig. 95) A - Epitaphe d'un prieur. B - Marbre (inventaire n° 542). Pierre provenant du couvent des Jacobins. C Marbre de 53,5 x 30 cm. Hauteur des lettres : 2,4 cm. D - E- 1. DOMINVS : ROGERIVS : BERNARD
1 : COMES : FUXI 2. POSVIT : ISTVM : LAPIDEM : SUPER : FRATREM 3. RAIMVNDVM : DE : FVXO : AVVNCVLVM : SWM : 4. QVI : FVIT : PRIOR : HVIVS : DOMVS : SEXDECIM 5. ANNIS : ET : HOBIIT : ANNO : DOMINI : : 6. M0 : CC° : L° : VIII° : VI0 : KALENDAS : AUGVSTI :
Le seigneur Roger Bernard, comte de Foix, a placé cette pierre sur [le corps de] frère Raimond de Foix, son oncle, qui fut prieur de cette maison pendant seize ans, et mourut l'an du Seigneur 1258, le 6 des calendes d'août [27 juillet]. F -
Cadre
et
lignes tracés
à
l'avance
.
Ponctuation par trois points verticaux entre chaque mot
. Quelques abréviations. Aucune li
aison
de
lett
res. Ecriture à
dominant
e de
lettres
onciales.
Fermeture de la plupart des lettres
. 168. Genetiaco 169. 170. Gallia christiana, Layettes, DEVIC etIII, abbas VAISSETE, n° 4sancti t.174, XIII,p.Saturnini. col. Histoire 24095b.. générale de Languedoc, t. IV, 1872, p. 523-525 : II idus octobris obiit Bernardus de 171. Ibid., p. 526. 131 Musée des Augustins (galerie lapidaire) G - Hobiit pour obiit. I
- Parmi les témoins signataires du testament de Vital Gautier, le 29 mars 1243 n. st., figure un frater Ramundus de Fuxo, prior 172. A la date de son décès aucun Roger-Bernard n'était comte de Foix. Roger-Bernard II était mort en 1241 et Roger-Bernard III ne fut comte qu'entre 1265 et 1302. On peut penser que l'épitaphe de Roger de Foix fut composée dans les premières années du gouvernement de Roger-Bernard III. LUCAS, Catalogue, n° 191 [texte
]. DU MEGE, Notice des tableaux, n°
194 [
texte
fautif
]. Le
même
, Description, n° 631 [id. }. Le même, Le cloître de la Daurade, p. 244 [id. ]. Le même, Notice des monuments, n° 235 [id. ]. CASTELLANE, Inscriptions du Ve au XVIe s., p. 132-133 [texte, fac-sim.]. ROSCHACH, Afwsee de Toulouse. Catalogue, n° 728 [texte]. RACHOU, Catalogue, n° 542, p. 228 [«/.]. DESCHAMPS, Etude sur la paléographie, p. 54 [mention
VS : LLIS 4. PRECENTOR : ET : 5. CLAVSTRALIS Le 8 des ides de septembre [6 septembre] mourut B[ernard] de Crouzeilles, préchantre et prieur claustral de cette église, l'an du Seigneur 1266. F - Cadre et lignes tracés à l'avance. Ponctuation par trois points verticaux entre chaque mot, y compris en début de ligne lorsque n'intervient pas une coupure syllabique. Le manque de place a obligé le lapicide à écrire hors du cadre le chiffre des unités de l'année du décès. Ceci explique peut-être l'absence d'une croix à la fin du texte. Les lettres où prédominent 172. Layettes, II, n° 3046, p. 497 b. 132 Musée des Augustins (galerie lapidaire) les onciales sont très souvent fermées : A, C, E, M. Les appendices terminaux des L, des S et des T sont très développés. On remarquera également la maladresse du lapicide à tracer le Z, dans le nom du défunt. G - Redoublement du / dans septembriis. Coupure maladroite du mot prior. H - Formulaire propre à l'obituaire, complété par l'année de l'Incarnation. I - Bernard de Crouzeilles succéda à Roger de Comminges comme préchantre de SaintEtienne172 bts. LUCAS, Catalogue, n° 203 [mention]. DU MEGE, Notice des tableaux, n° 206 [id. ]. Le même, Notice des monuments, n° 238 [id.]. Le mêmq, Description, n° 637 [ô/.]. CASTELLANE,/rtSc«pftbttS, p. 133, pl. VIII, fïg. 1 [texte]. ROSCHACH, Musée de Toulouse. Catalogue, n° 679 [id.]. RACHOU,
Catalogue
, n° 434,
p
.
180
[itf.].
92
1268, 28 juin - Epitaphe de Bertrand de Villeneuve (pl. XLIX, fig. 97) A - Epitaphe d'un chanoine. B - Marbre (inventaire n° 739). Provient de Saint- Etienne selon Du Mège, mais figure parmi les pierres de provenance indéterminée dans le catalogue de Rachou. C - Marbre de 43 x 34 cm. Hauteur des lettres : 3,1 cm.
D
-
1. 11
11°
:
KALENDAS
: IVLII : OBIIT : BER 2. TRANDVS : DE : VILLA : 3. NOVA : CANONICVS : ISTIVS : 4. LOCI : ANNO
: AB
: INCARNAT 5. IONE : DOMINI :
M°
: CC°
: LX° :
VIII0 :
E- Le 4 des calendes de juillet [28 juin] mourut Bertrand de Villeneuve, chanoine de ce lieu, l'an de l'incarnation du Seigneur 1268. F - Cadre double et lignes tracés à l'avance. Le texte sort du cadre à la fin de la troisième et de la cinquième ligne. Ponctuation par trois points verticaux entre chaque mot. Presque toutes les lettres sont onciales et fermées par un délié. H - Formulaire propre à l'obituaire, avec mention de l'année de l'Incarnation en fin de texte, mention introduite par la formule anno ab incarnatione Domini, moins fréquente au XHIe s. que l'habituel anno Domini. \12bis. Renseignement fourni par M.Patrice Cabau. 133 Musée des Augustins (galerie lapidaire) IUn Bertrand de Villeneuve est cité dans un acte de 1246 et signe, parmi de nombreux témoins, un autre acte du 10 mars 1252 n. st.173. LUCAS, Catalogue, n° 207 [mention]. DU MEGE, Notice des tableaux, n° 210 [id.]. Le même, Notice des monuments, n° 240 [id. ]. Le même, Description, n° 638 [«/.]. Le même, Mémoire sur le cloître, p. 273 et spéc. n. 1 [texte fautif]. RACHOU, Catalogue, n° 739, p. 301 [texte]. 93 1275, 3 juillet et 1279, 13 septembre - Epitaphe de Guillaume de Roufiac et de sa femme (pl. XLIX, fig. 98) A - Epitaphe de deux laïcs. B - Marbre (inventaire n° 740). Provenance indéterminée. C - Marbre de 45 x 44,5 cm. Hauteur des lettres : 3 cm. D - Registre de gauche : 1. : ANNO : DOMINI : M° CC° : 2. LXX° : V° : V : NON AS 3. : IV LU : OBIIT : 4. DOMINA : RAIMVNDA 5. VXOR : GVILLELMI : 6. : DE : ROFIACO : Registre de droite : 7. : ANNO : DOMINI : M° CC° : LXX° : 8. IX0 : YDUS : SEPTEMBRIS : OBIIT 9. : GVILLELMVS : DE : ROFIA 10. : CO : CORVM : ANIME 11. : REQVIESCANT :
12.
: IN
: PACE
: AMEN
(écusson) E - (écusson) (écusson) L'an du Seigneur 1275, le 5 des nones de juillet [3 juillet], mourut dame Raimonde, femme de Guillaume de Roufiac. L'an du Seigneur 1279, aux ides de septembre [13 septembre], mourut Guillaume de Roufiac. Que leurs âmes reposent en paix, amen. 173. Layettes, III, n° 3551, p. 637 a et n° 3892, p. 652 a.
F - Cadre et lignes préalablement tracés. L'inscription est divisée en deux registres. Le centre de la pierre est occupé par une gloire en amande qui n'a reçu aucune gravure. Les signes abréviatifs, ainsi que plusieurs lettres qui ne logeaient pas dans le corps, ont été gravés dans les interlignes. Presque toutes les lettres sont onciales et la plupart fermées par des déliés. A la partie inférieure de la pierre sont représentés trois écussons aux armes des défunts, celui du centre porte un renard grimpant, les deux autres une feuille à cinq lobes et trois rocs d'échi¬ quier en chef. G - Corum pour quorum. H - Formulaire comprenant l'an de l'Incarnation, l'obit et le nom pour chacun des défunts et une formule de prière commune aux deux défunts. I- Un Hugues de Roufiac est cité comme consul en 1205 à Montpellier, et un Arnaud de Roufiac est consul en 1226 à Carcassonne1730".
DU MEGE, Description, n° 641 [texte]. CASTELLANE, Inscriptions du Ve au XVIe s., p. 135-136, pl. IX, fig. 1 [texte, fac-sim.]. ROSCHACH, Musée de Toulouse. Catalogue, n° 795 [texte]. RACHOU, Catalogue, n° 740, p. 302 [kl.]. DESCHAMPS, Etude sur la paléographie, p. 54 [mention]. 94 [c. 1280] - Fragment d'épitaphe (pl. L, fig. 99) A - Epitaphe. B - Marbre (inventaire n° 726). Provenance indéterminée. C - Fragment de marbre de 41 x 40 cm. en très mauvais
état de conservation. Hauteur des lettres : 2,5 cm. D 1. ANNO M° CC° L XXX° ____ 2 3 DIS 4 B 5
B. EGES
6
REQVIESCAT. IN. PACE
AMEN F - La pierre, dont manque la partie gauche, est décorée de rinceaux qui reliaient vraisembla¬ blement quatre écussons gravés aux angles et deux écussons gravés au milieu. Ne subsistent plus aujourd'hui que les écussons médians et les deux écussons de la partie droite. Ceux-ci portent chacun trois anneaux champlevés disposés deux et un.
RACHOU, Catalogue,
n
°
726,
p. 298
[
mention]. Il ibis. Layettes, II, n° 1788 2, p. 650 a et III, n° 4092, p. 201 a. 135 Musée des Augustins (galerie lapidaire) 95 1282, 17 juillet
-
Epitaphe
de m
aître
Ai
meri
(
pl. LI
,
fig
. 101)
A
- Epitaphe d'
un
chanoine, chancelier. B -
Marbre
(
inventaire n° 435).
Provient du cloître de Saint-Etienne. F - Au centre de la pierre, dans une gloire en amande, soutenue par deux anges, trône Dieu en majesté. A sa gauche le chanoine Aimeri est représenté en orant, et à sa droite un ange présente au Père éternel l'âme d'Aimeri, sous la forme d'un enfant nu. Le chanoine est représenté une troisième fois, à la partie inférieure du bas-relief, dans l'attitude du trépassé, coiffé de l'aumusse, mains croisées, les pieds posés sur un animal. De chaque côté de cette scène sont figurés deux écussons aux armes du défunt, partis d'un échiqueté et de deux besants posés en pal. 174. Renseignement fourni par M. Patrice Cabau. Augustins ( lapidaire) L'inscription se développe sur trois des côtés du bas-relief. Le sens de la lecture est donné par la croix gravée au début de l'épitaphe et se poursuit de gauche à droite, d'abord sur une première ligne, puis sur une seconde. La ponctuation est marquée par deux points verticaux entre chaque mot, hormis pour les chiffres de l'année de l'Incarnation qui sont séparés par un point médian. L'emploi des onciales est général et la plupart des lettres sont fermées par un délié. G, H - La datation, donnée à partir de l'année de l'Incarnation, est précisée par la mention du souverain régnant, ainsi que par celle de l'évêque en exercice dans le diocèse. L'adjonction de qualificatifs - illustrissimus pour le roi, reverendissimus et valentissimus pour l'évêque - aux noms et aux titres n'a jamais constitué une règle, mais elle s'est peu à peu répandue lorsqu'il était question d'un haut personnage. L'emploi qualificatifs au superlatif est très rare dans les inscriptions avant le Xlle s., où on ne trouve guère que sanctissimus (fré¬ quent à l'époque carolingienne), et beatissimus beaucoup plus rarement employé. I- L'évêque Bertrand de l'Isle -Jourdain occupa le siège de Toulouse entre 1270 et 1286. Le cumul de l'importante fonction de chancelier et de celle d 'operarius semble bien montrer qu'il faut entendre pour cette dernière charge non celle d'un « ouvrier », mais celle de la personne chargée de la surveillance et de l'administration des biens de la cathédrale, ainsi que de leur entretien. A ce titre, Aimeri de Samatan procède le 20 mars 1256 à une permu¬ tation de biens avec l'évêque Raimond de Felgar, et figure, toujours en tant qu 'operarius, dans un acte du 24 décembre 1275. F - Cadre et lignes préalablement tracés. Ponctuation par trois points verticaux entre chaque mot. Presque toutes les lettres sont onciales et fermées par un délié. Aux quatre coins de la pierre sont gravées les armes du défunt. H - Formulaire incluant l'année de l'Incarnation, le quantième, l'obit, l'identité, la fonction et la qualité du défunt, ainsi qu'une double formule de prières : Cujus anima requiescat in pace, amen. Die Pater noster, qui se retrouve à Saint-Sernin en 1292 et en 1263 (sans Die). Le rapprochement de ces formules amène à proposer Saint-Sernin comme provenance possible de la présente épitaphe. I - La Barthe est une localité sise sur la commune de La Salve tat-sur-Agout, dans l'Hérault. Parmi les ascendants du chapelain Raimond on connaît un Guiraldus ou un Geraldus de Barta, consul de Montpellier en 123 1 et en 1236 et bajulus en 1253175. LUCAS, Catalogue, n° 208 [texte]. DU MEGE, Notice des tableaux, n° 21 1 [id.]. Le même, Notice des monuments, n° 242 [id.]. Le même, Description, n° 617 [id.]. CASTELLANE, Inscriptions du Ve au XVIe s., p. 136, pl. IX, fig. 5 [texte, fac-sim.]. RACHOU, Catalogue, n° 742, p. 303 [texte]. 97 1292, 30 août - Epitaphe d'Arnaud de la Roche (pl. L, fig. 100) A - Epitaphe d'un chanoine. B - Marbre (inventaire n° 527). Provient de Saint-Sernin. C - Marbre de 48,5 x 33 cm. Hauteur des lettres : 2,4 cm. D- 1. : ANNO : DOMINI : M0 : CC° LXXXX0 : II0 : IN : AMEN : ATER OSTER E - L'an du Seigneur 1 292, le 4 des calendes de septembre [30 août], mourut Arnaud de la Roche, chanoine de ce lieu. Que son âme repose en paix, amen. Dis : Notre Père. F - Cadre et lignes tracés à l'avance. Ponctuation par trois points verticaux entre chaque mot. L'écriture est plus étalée que sur les pierres précédentes, les lettres à panse sont très arrondies. Presque toutes les lettres sont onciales et fermées par des déliés. H - Année de l'Incarnation suivie du formulaire propre à I'obituaire et complétée par une double demande de prières, que l'on a rencontrée dans deux autres inscriptions de 1263 et 1283. LUCAS, Catalogue, n° 210 [texte], DU MEGE, Notice des tableaux, n° 213 [texte fautif et incomplet], Le mêmeofrce des monuments, n° 241 Le même, Description, n° 646 [id.] Le même, Mémoire sur le cloître, p. 273 et n. 4 [id.]. RQSCHACW, Musée de Toulouse. Catalogue, n° 719 [texte]. RACHOU, Catalogue, n° 527, p. 218 [id.]. 98 1293 n. st., 9 janvier - Epitaphe de Marquise de Lias (pl. LU, fig. 104) Epitaphe d'une laïque. Pierre (inventaire n° 811). Provient de l'abbaye cistercienne de Nizors. Pierre de 215 x 100 cm. Hauteur des lettres : 3,2 cm. A l'intérieur du bandeau courant autour de la pierre tombale. En haut : 1 ANNO : DOMINI : M0 : CC° : ICII : NONA. A- B- C- D- A droite : 2. : DIE : INTROYTVS : IANVARII : OBIIT : DOMINA : MARQVESIA : DE LINARIIS : DOMINE : DE : BONO En bas : 3. REPAVSO : ET : DE : LINARIIS : VXOR : 139 Musée des Augustins (galerie lapidaire) A gauche : 4. CONDAM : DOMINI : RAMVNDI : GVILLELMI : SCOTI : MILITIS : CONDAM : CVIVS : ANIMA : REQVIESCAT : IN : PACE : AMEN E-
L'an du Seigneur 1292 [1293 n. st.], le neuvième jour à compter du début de janvier, mourut dame Marquise de Lias, dame de Bon Repos et de Lias, femme de feu Raimond Guillaume Scot, jadis chevalier. Que son âme repose en paix, amen. F - La défunte est représentée en prière, au centre de la pierre, sous une arcature ogivale trilobée. De chaque côté du pignon qui coiffe cette arcature deux écus blasonnés portent écartelé, au premier et au quatrième chargé de trois coquilles, au deuxième et au troisième chargé d'une croix. L'inscription occupe le bandeau gravé autour de l'effigie. La ponctuation est marquée par trois points verticaux entre chacun des mots. La plupart des lettres sont onciales et fermées par un délié. G - Deux erreurs ont été commises par le lapicide dans la gravure du texte. L'indication de l'année est notée MCCICII au lieu de M CC XCII, et le génitif domine a été employé au lieu du nominatif. H - Le formulaire de l'épitaphe comporte l'indication de l'année de l'Incarnation, le quantième du mois et la formule habituelle de l'obituaire, suivie d'une prière. Le quantième est donné avec le terme introytus, pratique qui se rencontre à cette époque dans les chartes de la région. I - La seigneurie de Bonrepos et de Lias relevait du comté de l'Ile-Jourdain. Située à environ 25 km au Sud-Ouest de Toulouse, elle occupait les plateaux supérieurs de l'Aussonnelle. Les auteurs de Gallia christiana citent un évêque de Comminges nommé Scotus de Linariis. Ce prélat, peut-être parent de Marquise de Lias, assista en 1318 à l'exécution d'une sentence rendue par l'inquisiteur de la foi contre cinq religieux franciscains1 76. L'abbaye de Nizors, fille de Cîteaux, fut fondée en 1213. Sise dans la vallée de la Gesse, entre Blajan et Boulogne, elle devint pros père grâce aux bienfaits de Bertrand de l'Ile. ROSCHACH,Af«see de Toulouse. Catalogue, n° 800 [texte]. RACHOU, Catalogue, n° 81 1,
p.
327-328 [texte,
commentaire
]. 99 1294 - Fond
ation d
'une chapelle de cimetière (
pl
.
LII, fig.
103) A - Fond
ation
d'une chapelle de cimetière
. B- M
arbre
(inventaire n° 591). Provenance
indéterminée
. C - Fragment de marbre de 52 x 37 cm. Hauteur des lettres : 3 cm. 176. Gallia christiana, 1. 1, col. 1102. 140 MUsée des Augustins (galerie lapidaire) D - 1. [ANNO DOMINI]
M : CC : 1111° : MENSE 2 [H]EC DOMVS FVIT 3 [ET] : HEDIFICATA : PER 4 HOMINES : DE : CARARIA : 5 RVM : EORVM : PROPRIIS : 6 IBVS : AD
:
TENENDV[M] O 7. C[I]MENTERII : IN : QVO : PORTA 8..R : CORPORA : DEFVNCTORVM 9. F - Ponctuation par trois points verticaux entre chaque mot. Presque toutes les lettres sont onciales et fermées par un délié. G - Le vocable occitan « cararia » se trouve également employé sous la forme «carrarie», calquée sur le génitif de la première déclinaison. I - Le Musée des Augustins abrite deux autres pierres de la fin du XlIIe siècle concernant la fondation par des marchands de deux chapelles au couvent des Cordeliers177, mais la facture du texte est sensiblement différente de la précédente inscription. Rachou voit également en celle-ci une fondation faite par des marchands, mais il s'agit d'une mauvaise lecture du frag¬ ment HOIES qu'il transcrit par mercatores et du génitif defunctorum qu'il lit mercatorum. Force est donc d'admettre qu'il n'est pas possible pour le moment d'identifier avec précision cette pierre de fondation.
ROSCHACH, Musee Jes Augustins. Catalogue, n° 765 [texte]. RACHOU, Catalogue, n° 591, p. 255-256
[
texte
fautif]. CHALANDE, Histoire des rues de Toulouse, p. 1 81, n. 3 [mention]. 100 1295 - Sépulture de Guillaume Vital de Mongausy (pl. LIII, fig. 105) A - Fondation d'une sépulture. 177. Voir infra, inscriptions 1 10-1 1 1. usée des Augustins (galerie lapidaire)
B - Pierre provenant de fouilles faites à Samatan, dans le Gers, lors de la reconstruction de l'église paroissiale. La pierre qui avait été donnée au docteur Gendre à la fin du siècle dernier fut par lui offerte au Musée des Augustins. Elle ne figure pas dans le catalogue de Rachou. C - Pierre de 45,5 x 25 cm. Hauteur des lettres : 2,5 cm. D - 1.
:
G
VILLELMVS
:
VITALIS
:
DE
MON : 2. TE : GAVZIO : PRESBITER : 3. RI FECIT : FIE ISTVD : MONVMENTVM : AD : 0 4. PVS : SVI : ET : SVI : GENERIS : IN : AN 5. NO : DOMINI : M° : CC° : XC° : V° : DIC : PATER : NOSTER : E- Guillaume Vital de Mongausy, prêtre, fit faire ce monument pour son usage et celui de sa famille, en l'an du Seigneur 1295, Dis : Notre Père. F - Cadre et lignes préalablement tracés. Ponctuation par deux points entre chacun des mots et par trois points en fin de texte. La quasi-totalité des lettres sont onciales et fermées par des déliés. H - L'expression ad opus sui et sui generis se retrouve au XI Ile s. sous la forme ad opus sui et suorum dans l'épitaphe de Gouffier de Lastours inhumé en Limousin dans une chapelle de l'ancien prieuré du Chalard178. Formule de prière : Die pater noster. I - Mongausy désigne une commune du Gers, à une dizaine de kilomètres au nord-ouest de Samatan. Séance du 6 avril 1909, « Bull. Soc. archéol. Midi France »,n° 39, 1909, p. 443, fig. [texte]. 101 1296 ou 1297, mars - Epitaphe de Mascarosa, fille de B. de Caseneuve (pl. LIII, fig. 106) A - Epitaphe d'une laïque. B - Marbre (inventaire n° 439), provenant de la cathédrale Saint-Etienne. C - Marbre de 35 x 26 cm. Hauteur des lettres : 2,7 cm. D- 1. : 1STA : SEPVLTVRA 2. : EST : B : DE CASA : NO 3. VA : IC IHACET : MASCA 4.
ROSA : F
ILIA
: SVA : OBI
178.
C.I.FM., II : Limousin : Haute-Vienne,
inscription 6,
p.
95-96. 142 Musée des Augusîins (galerie lapidaire) 5. IT : MENCIS : MARCII : AN 6. NO : DOMINI : M° : CC° : XC° : VI° : E- Cette sépulture appartient à B. de Caseneuve. Ci-gît Mascarosa, sa fille. Elle mourut au mois de mars, l'an du Seigneur 1296. F - Cadre et lignes préalablement tracés. Ponctuation par deux points entre presque tous les mots. Trois conjonctions à l'avant-dernière ligne. Presque toutes les lettres sont onciales, y compris deux I, et fermées par des déliés. Au bas de l'inscription sont gravées trois tiges qui entourent deux écussons chargés d'un griffon grimpant. G - Forme fautive dans ic ihacet, le h du verbe pouvant répondre à un déplacement du h de hic. On notera également la forme mencis au lieu de mense. H - Formulaire indiquant le propriétaire de la sépulture et le nom de la défunte qui y est inhu¬ mée. DUMEGE, Notice des monuments, n° 243 [mention]. Le même, Description, n° 647 [id.]. Le même, Mémoire sur le cloître de Saint-Etienne, p. 273 et n° 5 [texte]. CASTELLANE,/rtscrc/7/7cw,s du Ve au XVIe s., p. 140, pl. XII, fig. 2 [texte, fac-sim.]. ROSCHACH, Musée de Toulouse. Catalogue, n° 685 [texte]. RACHOU,
Catalogue
, n°
439
,
p
.
181
-
182
[/d.].
102
1282, 12 juillet - Epitaphe de Bernard Molherat 1301, 28 août - Epitaphe de Lombarde d'Astorc (pl. LIV, fig. 107) A - Epitaphe d'un marchand et de sa femme. B - Pierre (inventaire n° 741). Provenance indéterminée. C - Pierre de 62,5 x 34,5 cm. D
- Partie droite
Partie gauche 1. ANNO : DOMINI : M° : CCLXXX : Il : ANNO : DOMINI : M0 : CCC° : 1° : Ve KALENDAS 2. QVARTO : YDVS : IVLII : : SEPTEMBR
IS : OBIIT : DOMINA 3. OBIIT : BERNARD VS LOMBARDA : DE AVSTVR 4. MOLHERATI : MER CONE : VXOR : PREDICTI : BERNARDI 5. CATOR : CVIVS : ANIMA : QVO[N]DAM : CVIVS : ANIMA : RE 6. REQ[VI]ESCAT : IN : PACE : AMEN : QVIESCAT : IN : PACE : AMEN : ( E Partie gauche : L'an du Seigneur 1282, le 4 des ides de juillet [12 juillet], mourut Bernard Molherat, marchand. Que son âme repose en paix, amen. Partie droite : L'an du Seigneur 1301, le 5 des calendes de septembre [28 août], mourut dame Lombarde d'Astorc, femme dudit feu Bernard. Que son âme repose en paix, amen. F - Cadre et lignes préalablement tracés. Ponctuation par trois points verticaux entre chaque mot Presque toutes les lettres sont onciales et fermées. L'inscription a été maladroitement retracée en noir, mais cette restauration a négligé plusieurs abréviations et certaines lettres de la première ligne du texte, ainsi que l'iconographie. Celle-ci peut cependant être précisée grâce à la description qu'en ont laissée Castellane et Rachou. Dans la gloire en amande qui sépare le texte en deux colonnes est gravé un Christ bénissant entouré du tétramorphe. A la partie inférieure de la pierre deux figures d'orants, représentant les défunts, alternent avec trois écussons. Celui du mari porte trois merlettes en bande, celui de la femme, à l'angle inférieur droit, porte un autour; et celui de l'alliance, au centre, est écartelé des deux écus. H - Le formulaire est analogue dans les deux épitaphes et fait mention de l'année de l'Incar¬ nation, du quantième, de l'obit, de l'identité des défunts et de la même prière.
CASTELLANE, Inscriptions du Ve au XVIe s., p. 140, pl. XII, fig. 1 [texte, fac-sim.]. ROSCHACH, Musée de Toulouse. Catalogue, n° 796 [texte]. RACHOU, Catalogue, n° 741, p. 302-303 [texte, commentaire]. 103 [milieu XHIe s.] - Epitaphe de Vivian (pl. LIV, fig. 108) A - Epitaphe d'un chanoine, archidiacre. B - Marbre (inventaire n° 824). Provenant de la cathédrale Sainte-Marie d
'
Auch. C - Marbre de 27,5 x
20,5
cm. Hauteur des lettres : 2,6
cm
. D - 1. : IIII
: KALENDAS : FEBROA[RII : O] 2. BUT : BIBIANVS : SA[CER] 3. DOS : CANONICVS : HVIVS : ECCLESIE 4. ET : ARCHIDIACONVS : VICENSIS : E
- Le 4 des calendes de février [29 janvier] mourut Vivian, prêtre, chanoine de cette église et archidiacre de Vie. F - Cadre et lignes tracés à l'avance. Ponctuation par trois points verticaux entre chaque mot. On remarquera l'entrelacement du et au début de la dernière ligne. Les onciales sont nom¬ breuses et variées et les E fermés. Les abréviations autres que celles des finales en - us sont 144 Musée des Augustins (galerie lapidaire) marquées par un tilde à renflement médian porté dans les interlignes. Les caractères ont été alternativement coloriés ligne à ligne en rouge et en bleu. G - La forme classique Vivianus a donné Bivianus par transformation de la fricative sourde en occlusive sonore, phénomène courant en Gascogne comme en Espagne où l'on en rencontre de nombreux exemples dès le haut moyen âge. I - L'archidiaconé de Vic-Fezensac dépendait de l'archevêché d'Auch. L'étude paléographique du texte permet d'attribuer cette épitaphe au milieu du XlIIe s. CASTELLANE, Inscriptions du Ve au XVIe s., p. 292, pl. II, fig. 4 [texte, fac-sim.]. ROSCHACH,
M«see de
Toulouse
. Catalogue, n° 810 [texte]. RACHOU, Catalogue, n° 824, p. 334 [id.]. 104
[
Ire m
. XlII
e
s.
] -
Epitaphe de Gaubert
(
pl. LV, fig. 109
) A - Epitaphe d'
un
chanoine
.
B - Marbre (
inventaire
n
°
438
), provenant de la cathédrale Saint-Etienne. C - Marbre de 26 x 19 cm
.
Hauteur
des
lettres : 3,1 cm
.
D - 1. + : IIII : NONAS : IVNII : OBIIT : GAVS 2. BERTVS : CANONICVS : ISTIVS : LOCI : E - Le 4 des nones de juin [2 juin] mourut Gaubert, chanoine de ce lieu. F - Lignes préalablement tracées. Ponctuation par trois points verticaux entre chaque mot. Onciales nombreuses et variées mais non fermées. Ecriture élégante, étirée en hauteur. Croix latine initiale. H - Formulaire propre à l'obituaire, destiné à l'inscription dans un calendrier liturgique. I - L'analogie entre l'écriture de cette épitaphe et les autres inscriptions toulousaines permet d'attribuer ce texte à la première moitié du XlIIe s. DU MEGE, Notice des tableaux, n° 219 [mention]. Le même, Notice des monuments, n° 251 [id.]. Le même, Description, n° 591 [id.]. CASTELLANE, Inscriptions du Ve au XVIe s., p. 99 [texte]. ROSCHACH, Musée de Toulouse. Catalogue, n° 684 [ztf.]. RACHOU, Catalogue, n° 438, p. 181 [id.]. 145 Musée des Augustins (galerie lapidaire) 105 [ Ire m. XHIe s.] - Epitaphe de Pierre (pl. LV, fig. 1 10) A - Epitaphe d'un chanoine, chapelain. B - Marbre (inventaire n° 437). Provient de la cathédrale Saint-Etienne. C - Marbre de 24 x 22 cm. Hauteur des lettres : 3,8 cm. D- 1. KALENDIS : IANVARII : OBIIT : 2. PETRVS : CAPELLANVS : 3. CANONICVS : ISTIVS : LOCI : E - Aux calendes de janvier [ 1 er janvier] mourut Pierre, chapelain, chanoine de ce lieu. F, H, I - Voir inscription précédente. DU MEGE, Notice des tableaux, n° 186 [mention]. Le même, Notice des monuments, n° 265 [id.]. Le même, Description, n° 601 [id.]. CASTELLANE, /«scrz'pZïo/îs du Ve au XVIe s., p. 99 [texte]. ROSCHACH,Mwse'e de Toulouse. Catalogue, n° 683 [/#.]. RACHOU, Catalogue, n° 437, p. 181 [id.]. 106 [2e m. XHIe s.] - Epitaphe d'Arnaud de Samatan (pl. LVI, fig. 111) A - Epitaphe d'un chanoine. B
- Marbre (inventaire n° 436), provenant de
la
cathé
drale
Saint-Etienne.
C - Marbre de 21 x 20 cm. Hauteur des lettres : 3,4 cm. D - 1. II : IDVS : DECEMBRIS : 2. OBIIT : ARNALDVS : DE : 3. SAMATANO : CA 4. NONICVS : IST[I]VS : LOCI : E- Le 2 des ides de décembre [12 décembre] mourut Arnaud de Samatan, chanoine de ce lieu. F - Cadre et lignes préalablement tracés. Ponctuation par trois points verticaux entre chaque mot. Une conjonction et trois enclavements. H - Voir inscription précédente. 146 Musée des Augustins (galerie lapidaire) I - Samatan est une localité du Gers, située au nord-est de Lombez. Arnaud de Samatan, infir¬ mier du chapitre, est cité comme témoin dans un acte en juillet 1222179. LUCAS, Catalogue, n° 184 [mention]. DU MEGE, Notice des tableaux, n° 187 [id. ]. Le même, Notice des monuments, n° 250 [id. ]. Le même, Description; n° 598 [id.]. CASTELLANE, Inscriptions du Ve au XVIe s., p. 99 [texte]. DU MEGE, Archéologie pyrénéenne, 1. 1, p. 530 [mention]. ROSCHACH,Afwsee de Toulouse. Catalogue, n° 682 [texte]. RACHOU, Catalogue, n° 436, p. 181 [id.]. 107 [2e m. XlIIe s.] - Epitaphe de P[ierre] Marchand (pl. LVI, fig. 112) A - Epitaphe d'un tisserand. B - Pierre. Non inventoriée par Rachou. Pas d'indication de provenance. C - Pierre de 5 1 x 31 cm. Hauteur des lettres : 2,5 cm. D- 1. : ISTA : SEPVLTVRA : E 2. ST : P[ETR]VS (sic) : MERCATORIS 3. : TEXTOR[I]S R[E]QVIESCAT : 4. IN : PACE : AMEN E- Cette sépulture est celle de P[ierre] Marchand, tisserand. Qu'il repose en paix. Amen. F - Cadre et lignes préalablement tracés. Ponctuation par trois points verticaux. Lettres onciales fermées par des déliés. G - La dégradation du support rend la lecture lettre à lett re parfois malaisée. Le lapicide a utilisé pour le prénom la finale - us oubliant que la syntaxe appelait un génitif. Etant donné l'époque à laquelle il convient d'attribuer ce texte (seconde moitié du XlIIe s.), il paraît préférable de comprendre qu'il s'agit de l'épi taphe d'un tisserand nommé Pierre Marchand, plutôt que celle d'un Pierre, marchand-tisserand. Inédit. (pl. LVII, fig. 1 13) A - Epitaphe. B - Pierre (inventaire n° 585). Provient de l'église Saint-Michel. C - Fragment lapidaire de 56,2 x 49 cm. Hauteur des lettres : 3,6 cm. D- 1. : : ESTA : CEPVLTVRA 2. ES : DE GVILLEM : DE MON : 3. CRABIER E - Cette sépulture est celle de Guillaume de Moncrabier. F - Lignes tracées à l'avance à la partie supérieure de la pierre. Ponctuation par trois points verticaux. Lettres onciales fermées. H - Formulaire réduit à l'indication de la propriété de la sépulture et au nom du défunt. I - Des armes parlantes, aujourd'hui très effacées, représentaient une chèvre franchissant une montagne d'où naissait un arbre et, en chef, trois fleurs de lys. Deux noms de lieu pourraient correspondre au Moncrabier cité dans l'inscription. Ce sont Montcabrier dans le Lot, et Montcabrier dans le Tarn. L'inscription peut être attribuée à la fin du XlIIe s. ROSCHACH,Afwsée de Toulouse. Catalogue, n° 760 [texte]. RACHOU, Catalogue, n° 585, p. 253 [texte, commentaire]. 109 [fin XlIIe s.] - Sépulture de Bernard de Gardouch (pl. LVII, fig. 114) A - Sépulture d'un marchand. B - Pierre (inventaire n° 586). Provient de l'église Saint-Michel. C - Pierre de 73,2 x 45,6 cm. Hauteur des lettres : 3,8 cm. D- 1. : ESTA : SEPVLTVRA : ES : 2. : D'EN : BERNAT : AT : DE : G 3. ARDOH : FLESSADIER : E- Cette sépulture est celle du sieur Bernard de Gardouch, fabricant de couvertures. F - Aucune réglure n'apparaît sur la pierre. Ponctuation par trois points verticaux entre chaque mot. Lettres onciales fermées. Au-dessous de l'inscription sont gravés trois écussons chargés : 148 Musée des Augustins (galerie lapidaire) le premier, d'une coquille et d'une clef; le second, d'un palmier et le troisième d'une tête de chevalier revêtue du camail de mailles. G - Le terme « flessadier » désigne un fabricant de couvertures. On peut se demander si le lapicide n'a pas commis une erreur en reprenant la syllabe at après Bernât. I - Gardouch est une localité de la Haute-Garonne, sise près de Villefranche-de-Lauragais, L'inscription peut être attribuée à la fin du Xlle s. DU MEGE, Notice des tableaux, n° 191 [texte]. Le même, Notice des monuments, n° 239 [id. ]. Le même, Description, n° 606 [id.]. CASTELLANE,/ttscr/pfz'ons du Ve au XVIe s., p. 133, pl. VII, fig. 3 [texte, fac-sim.]. ROSCHACH, Musée de Toulouse. Catalogue, n° 761 [texte]. RACHOU, Catalogue, n° 586, p. 253 [id.]. 110 [fin XlIIe s. -début XlVe s.] - Fondation de la chapelle Saint-Jacques (pl. LVIII, fig. 115) A - Fondation d'une chapelle. B - Pierre (inventaire n° 557), provenant du couvent des Cordeliers. C - Pierre de 42,5 x 25,7 cm. Hauteur des lettres : 2,5 cm. D- 1. ISTA : CAPELLA : E 2. ST : CONSTRVCTA : A 3. D : HONOREM : SANCTI 4. : IACOBI : APOSTOLI 5. : DE : HELEMOSINA : ARNAL 6. DI : MARTINI : MERCA 7. TORIS : CVIVS : ANIMA : REQVI 8. ESC AT : IN : PACE : AMEN E- Cette chapelle a été construite en l'honneur de saint Jacques, apôtre, avec les aumônes d'Arnaud Martin, marchand. Que son âme repose en paix, amen. F - Cadre et lignes préalablement tracés. Ponctuation par trois points verticaux entre chaque mot. La quasi-totalité des lettres sont onciales et fermées. Coupure maladroite de certains mots (est, ad). H - La formule de prières qui conclut l'inscription est caractéristique de l'épigraphie tumulaire. Elle indique que la fondation de cette chapelle est pour le marchand Arnaud Martin une façon d'assurer le repos de son âme tout à fait comparable aux fondations d'anniversaire assorties de dons en espèces. I - L'écriture permet d'attribuer cette inscription à la fin du XI Ile ou au début du XlVe s. 149
Musée des Augustins (galerie lapidaire) DU MEGE, Notice des monuments, n° 257 [texte]. LAVERGNE, Abftce sur le couvent des Cordeliers, p. 146 [id.]. DU MEGE, Description, n° 602 [id.]. CASTELLANE, Inscriptions du Ve au XVIe s., p. 136, pl. IX, fig. 2 [texte, fac-sim.]. ROSCHACH, A/wse'e de Toulouse. Catalogue, n° 742 [texte], ESQUIE, L 'église et le monastère des Cordeliers, p. 396-397 [mention]. RACHOU, Catalogue, n° 557, p. 237 [texte]. 111 [fin XlIIe-début XlVe s.] - Fondation de la chapelle Saint-Barthélemy (pl. LVIII, fig. 116
) A - Fondation d'une chapelle. B - Pierre (inventaire n° 556). Provient du couvent des Cordeliers. C - Pierre de 31 x 25,5 cm. Hauteur des lettres : 2,5 cm. D - 1. ISTAM : CAPELLAM : FECIT : 2. FIERI : DOMINVS : G[ VILLE LMVS] : PONCII : FVST 3. ERII : MERCATOR : AD H 4. ONOREM :
DOMINI : ET : BEAU : B 5. ARTHOLOMEI : APOSTOLI : E -
Le seigneur G[uillaume] Pons Fustier, marchand, fit faire cette chapelle en l'honneur du Seigneur et de saint Barthélémy, apôtre. F - Aucune réglure n'apparaît sur la pierre. Ponctuation par trois points verticaux. Presque toutes les lettres sont onciales et fermées par des déliés. L'écriture est plus resserrée que celle de l'inscription précédente. Coupure maladroite de certains mots : Fusterii, honorent, Bartholomei.
H
,
I -
Voir inscription
précédente
. DU MEGE, Notice des monuments, n° 264 [texte]. LAVERGNE,TVo/7'ce sur le couvent des Cordeliers, p. 146 [id.]. DU MEGE, Description, n° 603 [id.]. CASTELLANE, Inscriptions du Ve au XVIe s., p. 135, pl. VIII, fig. 5 [texte, fac-sim.]. ROSCHACH, Musée de Toulouse. Catalogue, n° 741 [texte], ESQUIE, L 'église et le monastère des Cordeliers, p. 396-397 [mention]. RACHOU, Catalogue, n° 556, p. 237 [texte]. 112 [fin XlIIe s.] - Croix funéraire de dame Guillaume (pl. LIX, fig. 117) A - Epitaphe d'une laïque. 150 Musée des Augustins (galerie lapidaire) B - Pierre (inventaire n° 685
). Cette croix et les trois suivantes ont été trouvées en 1903 dans le sous-sol du Musée. Rachou n'en indique pas la provenance, mais Du Mège précise qu'elles proviennent du cimetière de la paroisse Saint-Michel. C - Croix funéraire de pierre de 80 x 32 cm. Hauteur des lettres : 3 cm. D- 1. : AISI : IAT : DONA : GV 2. ILALMA : MOLH 3. ER : DEN : IOHAN : AZ 4. EMAR : 5. MEN 6. ESC A 7. LC : AMEN : E - Ci-gît dame Guillaume, femme du sieur Jean Azémar, maréchal-ferrant. Amen. F - Aucune réglure n'apparaît sur la pierre. Ponctuation par trois points verticaux entre chaque mot. Lettres onciales fermées par des déliés. G - Les quatre croix funéraires conservées au Musée des Augustins portent toutes un texte en occitan. I - Au-dessus de l'inscription est gravée une coquille que l'on retrouve au revers de la croix, au-dessus d'un écusson champlevé coupé en chef parti : au premier à un fer à cheval, au deuxième à une enclume surmontée d'un marteau, en pointe à un poisson. DU MEGE
, Notes sur
quelques inscriptions sépulcrales, provenant du cimetière de la paroisse Saint-Michel à Toulouse, p.
437
[
texte
], RACHOU,
Catalogue
,
n
°
685
,
p
.
292
[
id
.]. 113 [
fin
XlIIe s.] -
Croix funéraire de
Pierre
de
la Sale et de dame Bernade (pl. LIX, fig. 118) A - Epitaphe d'un couple. B - Pierre (inventaire n° 687). C - Fragment de croix funéraire de pierre de 37 x 33 cm. Hauteur des lettres : 3 cm. D-
1. :
LE : S 2. ENHEN
3.
PEIRE :
DE
:
LA : SALA
4. IACT : AISI : E LA : DON 5. A : BERNADA : SA : MO 6. LHER : 151 Musée des Augustins (galerie lapidaire) E- Le seigneur Pierre de la Sale gît ici avec dame Bernarde, sa femme.
| 37,943
|
2017LEMA2004_6
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,017
|
Etude qualitative des dimensions de la collaboration interprofessionnelle et de leur interdépendance : cas des équipes de soin au sein du CHU Mongi-Slim
|
None
|
French
|
Spoken
| 7,619
| 11,426
|
Les pharmaciens qui -généralement se situent dans un endroit à part dans l’hôpitalutilisent les téléphones pour joindre tel ou tel chef service et discuter autour d’un problème. Néanmoins, ils affirment qu’une rencontre avec la personne concernée est beaucoup plus efficace. Certains problèmes autour de la gestion des médicaments sont complexes : un coup de téléphone ne permet pas d’appréhender tous les aspects. Désormais, l’hôpital doit faire preuve de « réalisme gestionnaire » (Husser, 2011). Faciliter le contact instantané n’est pas synonyme de résolution de problèmes. L’introduction progressive des nouvelles technologies de l’information pour organiser le travail (numérisation des données, administration du travail, etc.) a engendré une 124 transformation de la pratique médicale. Une nouvelle configuration se dessine, une nouvelle relation de la gestion médicale se dessine (Rossi, I., 2014). L’aspect technologie concerne aussi l’évolution des instruments et des équipements médicaux. L’évolution de l’activité médicale a engendré une prolifération de « besoins techniques » pour manipuler ces aspects technologiques. La manipulation de certains équipements est devenue difficile. Certains répondants éprouvent de la difficulté à utiliser les équipements : « J’ai zéro contact avec le matériel. Je ne le connais pas et il ne me connaît pas. Je ne sais pas comment l’utiliser. Cela m’embête car parfois il faut utiliser tel et tel équipement pour travailler. Je suis obligée de laisser de côté en attendant qu’on m’explique comment faire. » Entretien n°6paramédicale «
Parfois avec les nouveaux le commencement est difficile ils ne savent pas comment manipuler le matériel. Moi je leur montre je n’ai pas de problèmes. Au début nous avons tous eu ce problème d’utilisation des équipements. C’est le problème du décalage entre la théorie et la pratique. Malheureusement on apprend sur le tas ou par l’observation. » Entretien n°10Infirmière-principale
Dans la même veine, les travaux de Massaro (1993) explique le gap qui se crée parfois entre la nature élémentaire des tâches dans un établissement de soin et le recours à la technologie de pointe. Dans certains cas, la nature flexible des tâches dans les organisations de santé se heurtait à un système trop rigide qui ne parvenait pas à traduire l’informel de la pratique médicale Massaro (1993). Ce constat est illustré par les propos suivants : « Il y a le cas de thrombolyse! Ces malades ont besoin d’un appareil spécifique. Cette machine est en panne. Donc on essaie de faire avec d’autres équipements et ce n’est pas évident. En cas d’absence totale je suis obligée de faire la rééducation manuellement. Heureusement que dans certains cas c’est possible » Entretien n° 12-paramédicale-kinésithérapeute « Bon
ici
c'est
très rare
car notre matériel n'est utilisé que par nous. Bon une fois la soudeuse est tombée en panne. Bon on a continué à travailler avec jusqu'au bout juste on a changé la manière dont la tâche s'exécute c'est tout... » n°10-Infirmière-principale
125
I-
1-3 La communication
En favorisant la communication et la circulation des informations, le professionnel vise à créer des synergies, en laissant à chacun sa part de responsabilité et en garantissant la continuité des soins. Cette sous dimension est présentée ci-dessous. La communication représente la modalité d’interaction la plus récurrente. Ceci est perceptible à travers la fréquence de son apparition dans les discours des répondants. La communication est primordiale pour la collaboration interprofessionnelle. Tous les intervenants sont de même avis quant à la nécessité d’établir une communication interprofessionnelle efficiente pour faire avancer le travail : « La communication c’est la solution pour maintenir des relations professionnelles efficaces » n°4-médecin ; « il faut dialoguer et parler avec ses collègues et bien travailler » n°6-paramédical La communication est une interdépendance entre les individus qui témoignent de leur processus de socialisation: « Communication, then, is not simply the sending of a signal to be received by another, but rather complex social (that is, responsive) processes of self-formation in which meaning and the society-wide pattern of the social object emerge » (Stein et al, 2005, p. 5). Dans ce sens, les professionnels échangent des informations dans le but de la prise de décisions partagées (D’Amour et al, 1999 ; MacIntosh et McCormack, 2001 ; Satin, 1994). En d’autres termes, les professionnels ayant participés aux décisions se retrouvent donc interdépendants dans leurs actions et leurs responsabilités (D’Amour et al, 1999). Selon Mead (2011): « Les individus ne vivent pas isolés, ils entrent en relation les uns avec les autres, et le maintien de leur vie, requiert d’eux qu’ils agissent de façon interdépendante, et donc, qu’ils coordonnent leurs activités communes » (p.57). La communication apparaît comme le fondement du travail collectif des soignants. La communication se concrétise par une entente commune qui permet de faciliter les relations interprofessionnelles : « L’équipe est solide. Il y a une belle entente entre tous. » n°4-médecin ; « Pour moi ceux avec qui je m’entends sont ceux avec qui je collabore » n°14-aide-soignante 126 La rétention de l’information fragilise la communication et bloque le travail collaboratif : « Il y a des collègues qui retiennent l’information et ne veulent pas la passer. Cela me bloque on ne peut pas travailler dans des conditions pareilles» n°10-infirmière-principale. Plusieurs répondants ont exprimé un besoin pressant pour l’instauration de programme de formation interprofessionnelle. Certains ont proposé des rencontres régulières pour améliorer la communication interprofessionnelle. Plusieurs études mettent en relief le caractère impératif de l’instauration d’une communication appropriée entre les professionnels pour collaborer (Manning, 2006 ; Petri, 2010). Cette importance accordée à la communication découle de la nécessité de dialoguer entre les professionnels (Petri, 2010). En d’autres termes, l’interdépendance professionnelle ne va pas de soi. Elle doit passer par un dialogue entre les intervenants (Manser, 2009). Il convient de mentionner, qu’une telle communication doit s’établir sur la base d’une « intercompréhension » (Xyrichis et Lowton, 2008). Néanmoins, le recours aux aptitudes communicationnelles n’est pas systématique. En effet, il est primordial de penser cette aptitude à travers un apprentissage spécifique qui permet de l’acquérir mais surtout de l’appliquer pour assurer la continuité de l’agir ensemble. Or, dans la plupart des cas, l’apprentissage de cette compétence n’est pas insérée dans l’affiliation universitaire ( ou même dans le cas des formations continues) ( Pronovost et Vohr, 2010, p.
. I-1-4 La formation interprofessionnelle
Dans le cas de cette recherche, la majorité des savoirs sont acquis dans l’affiliation initiale ou continue. Ils sont consacrés à des aspects techniques de la profession. Dans la plupart des réponses les intervenants indiquent qu’ils n’ont pas reçu de formation concernant la gestion de l’aspect relationnel de leurs professions : « un grand manque au niveau des formations initiales ou autres. Moi personnellement je n’ai rien appris sur la relation avec mes collègues. J’ai tout appris par l’expérience » n°4-médecin 127 Dans quelques réponses, ils indiquent avoir eu un module en communication interprofessionnelle mais que cela n’avait pas beaucoup d’impact sur la pratique au terrain : « il y a des laboratoires privés qui font des ateliers sur la communication interprofessionnelle. Je me suis inscrite à une ou deux sessions. Mais dans le cursus j’ai rien eu. » n°5-Pharmacienne « Nous avons eu des modules sur la gestion des conflits. Mais j’aurais bien aimé plus. L’aspect relationnel est très dur à gérer. Je me souviens à mes débuts j’ai eu beaucoup de mal travailler avec les autres. La théorie est une chose mais la pratique est tout autre chose » n°13psychologue. Ce manquement hypothèque la concrétisation de la CIP. La formation interprofessionnelle est un des moyens indispensables à l’amélioration de la collaboration interprofessionnelle. Elle favorise un respect mutuel pour les contributions de chaque professionnel. Elle promeut une reconnaissance des efforts et une meilleure valorisation des compétences (D’Amour et al, 2008). Les résultats de la recherche montrent que peu d’écoles de médecine ou de santé incluent ces formations dans leurs cursus. Au niveau de la formation continue à l’hôpital ces aspects des relations interprofessionnelles sont peu explorés : « Au niveau de l’hôpital nous n’avons rien appris dans ce sens. Nous faisons comme les autres. Nous observons et nous appliquons. Il n’y aucune formation » n°16-médecin-urgentiste. Le partage d’une mission commune, de la responsabilité, la clarté des tâches et un partage régulier des ressources et de l’information représentent des atouts à développer dans les filières de formation.
I-2-La finalisation
La finalisation est une dimension validée dans les résultats à travers l’atteinte des objectifs et l’unicité de la décision thérapeutique. Ces deux sous-dimensions sont interprétées dans les paragraphes suivants. I-2-1 L’atteinte des objectifs
Le partage d’une vision commune et la poursuite des objectifs communs représente deux éléments fondamentaux dans les soins interprofessionnels centrés sur le patient : « J’essaie d’appliquer au max les objectifs » n°2-aide-soignante 128 « Oui bien sûre pas de prise risque! Il faut suivre les objectifs. Tu appliques la conduite et tu essaies au max d’appliquer toutes les consignes. » n°4-médecinLes répondants participant à la recherche expriment une vision semblable quant à la collaboration centrée sur le patient. Ils ont la même finalité : celle de fournir une prestation de soin de qualité pour le patient. Selon D'Amour (1997), cela implique que : « plus les acteurs souscrivent aux finalités de ce système d’action, plus ils sont prêts à faire des compromis pour arriver à une coopération la moins conflictuelle possible qui produit les meilleurs résultats » (p.189). Les comptes rendues par les passations écrites et orales font partie du quotidien obligatoire dans le CHU. Cet attribut témoigne aussi du souci de l’unicité de la décision thérapeutique centrée autour du patient. Tous les répondants affirment le recours aux passations écrites et ou orales pour tenir informer les collègues des éléments essentiels de l’état du patient. Cet aspect représente un élément médico-légal. Toutes les réponses convergent vers le respect impératif de la mise au point des passations. Pour cette dimension, l’analyse du contenu a permis d’identifier une variabilité au niveau du degré de la finalisation. En effet, l’action entreprise dans le collectif diffère d’une catégorie professionnelle à une autre. Les professionnels n’ont pas tous la même « intensité » de régulation par rapport aux résultats et aux objectifs. Au cours de l’analyse des discours trois profils « collaboratifs » ont émergé : Les résultats montrent aussi que la catégorie professionnelle a un effet modérateur sur la manière de collaborer. Il est important de voir la variabilité des composantes de la CIP selon le poste occupé. Chaque catégorie professionnelle a ses propres spécificités. Cette différence engendre une variation au niveau de la structuration de la CIP. Les résultats montrent trois « profils collaboratifs » : l’agir, la négociation et le faire. Le profil « agir » correspond à une attitude de collaboration qui se base sur l’action et la prise de décision rapide pour agir en urgence. En termes de collaboration, les intervenants de ce profil comptent sur leur propre intervention. « Parfois je dois agir dans l’urgence et je n’attends pas d’avis » n°17-résident-médecin. Ce profil correspond aux médecins (toutes spécialités confondues) et aux pharmaciens. Ce qui explique leur attitude de prise d’initiative. Cette attitude explique aussi leur besoin d’emprise sur la décision : « Je collabore avec les réanimateurs mais parfois ils ne viennent pas. Dans ce cas, je réagis par défaut. Il ne faut pas laisser le malade dans un état très grave. Tu es dans l’action : tu réagis » n°16-médecin 129 Cette emprise vient d’une tradition ancrée dans la profession médicale celle de la supériorité accordée à ce statut (Friedson, 1986). Parmi ces répondants, il y a ceux et celles occupent le poste de supérieurs hiérarchiques. Ces intervenants sont davantage concernées par la question du leadership. Ils proclament la valorisation du capital humain par la reconnaissance des efforts de chacun : « il faut impliquer le personnel et le motiver » n°4-médecin. Le second profil est celui de la négociation. A ce profil correspond la profession des paramédicaux. La formation théorique et pratique de ces professionnels leur confère une capacité de négociation de la décision thérapeutique : « On essaie de convaincre de notre point de vue mais finalement c’est le supérieur hiérarchique qui décide de quoi faire. » n°11-résident-médecin Ils adoptent un processus de déconstruction de la « hiérarchisation professionnelle » : « ce n’est par ce qu’il est médecin qu’il comprend mieux. Par exemple les internes ils ne connaissent rien. Nous avons de l’expérience dans le terrain eux ils sont dans un stage de secrétariat. Donc, moi je ne fais pas tout ce qu’un interne me demande. Si je ne suis pas convaincue je ne le fais pas. »Entretien n°5-Pharmacienne. La collaboration interprofessionnelle pour ces intervenants se focalise sur la valorisation de la prise en charge « globale » du patient. A travers un capital de connaissances théoriques mais également pratiques, ils se permettent une relation horizontale avec les médecins : « on demande avis à nos supérieurs et nous discutons entre nous » Entretien n°20-Infirmier Le troisième profil dégagé est celui du « faire ». Les infirmiers et les aides-soignants collaborent selon une logique d’accomplissement de ce qui doit être fait. La collaboration interprofessionnelle se caractérise par une « attitude pacifique » devant l’extension et la diversification des interventions. Les infirmiers construisent la collaboration autour du patient. Ils collaborent dans le sens où ils apportent un soulagement au patient. Ils sont dans une perspective du « care ». Ceci est illustré par le discours suivant : « La psychologie du patient compte beaucoup plus que le traitement un mot gentil vaut mieux qu’un comprimé. Par expérience ça sert à rien de gronder le patient en lui donnant le médicament le soutien moral vous ne pouvez pas imaginer combien c’est important. Nous bon nous avons des patients qui passent à d’autres services ils ne veulent pas et ils nous réclament car nous nous sympathisons c’est un sentiment de compassion et ils ressentent cela » Entretien n°7-Infirmier. Les résultats sont conformes aux 130 écrits sur la relation classique médecins-infirmiers (Friedson, 1986). En effet, les infirmiers sont dominés par les médecins : « cela commence du médecin c’est lui qui connaît tout le travail et connaît tout ce qu’ faut faire c’est lui qui indique tout ce qu’il faut faire » n°18-infirmier. Le sens de la collaboration interprofessionnelle est unidirectionnel dans la majorité des cas. Les infirmiers se soumettent à la prescription du médecin : « Mais faire ou ne pas faire c’est la prescription du médecin! Tu es obligé de faire ce qu’’il ordonne » Entretien n°18. Leur statut ne leur confère pas de légitimité scientifique ou d’autorité professionnelle pour se permettre une prise de décision autonome. Par ailleurs, cette autonomie est conditionnée par la profession exercée. Ainsi, dans certains postes, les professionnels décident des priorités, de la manière d’accomplir les tâches ou de résoudre les problèmes (Mintzberg et Gouldner, 2003b). Néanmoins, peu sont invités à participer dans les négociations de certaines décisions thérapeutiques, du budget et des livrables (le cas des pharmaciens chefs-services). En d’autres termes, ces professionnels se doivent d’accepter les décisions prises à un niveau hiérarchique supérieur. La CIP est alors limitée à l’exécution des tâches et des prescriptions (idem, 2003). Dans leur ouvrage « la pensée infirmière » Kérouac et al (2003) mettent en relief l’existence de deux centres d’intérêts distincts pour les infirmiers et les médecins. Cette différence s’explique par la différence de la visée de chaque profession. La profession médicale s’intéresse à la « vie humaine » à l’impact des interventions et à l’ampleur de la responsabilité des décisions thérapeutiques (ibid, 2003). En ce qui concerne la profession infirmière, elle est orientée vers la personne, la proximité du patient et l’ « entièreté » de la vie (Kérouac et al, 2003). Ce déplacement possible des compétences est expliqué par l’opposition de deux logiques de fonctionnement dans une relation de collaboration : Au modèle professionnel qui se base sur « le faire » s’oppose le modèle de l’« agir ». Le premier modèle préconise un soignant qui applique les recommandations. Le soignant dans ce cas, applique strictement ce qu’on lui demande de faire ou ce qu’il a trouvé comme prescriptions. Il s’agit d’un modèle de compétences préétablies. 131
Cette logique de prescription dicte les actions du soignant (idem). L « ‘agir » correspond à la conception de la pratique médicale par Friedson. Selon l’auteur, le diagnostic et le traitement ne se font pas d’une manière mécaniste. La pratique médicale est dans ce sens une construction sociale. Autrement dit, pour Friedson(1986) : « La profession médicale utilise des critères normatifs pour sélectionner ce qui l’intéresse et ce travail constitue une réalité sociale qui est distincte de la réalité physique. » (p.5). La démarche du « faire » décompose le poste en une chaine de tâches partielles. La démarche d’agir s’inscrit dans une logique de recherche de sens pour chaque tâche accomplie. Le soignant est capable de « faire le choix d’actions pertinentes sur la base de son expérience et de son jugement clinique » (idem, p.6). La marge de manœuvre accordée à chaque professionnel n’est pas identique. Certaines catégories ont plus d’autonomie et de liberté d’action que d’autres. Traditionnellement le concept de l’autonomie professionnelle est accordé aux médecins. Or, le médecin dans sa conception traditionnelle commence à perdre du territoire au détriment d’autres professions de soin qui se créent pour répondre aux nouvelles exigences techniques et technologiques de l’environnement médical. L’évolution technologique a transformé la profession médicale. Les paramédicaux, qui ont été interrogés dans le cadre de cette recherche s’inscrivent dans cette perspective. Leur formation dans plusieurs spécialités telles que la réanimation, la nutrition, la biologie, l’imagerie médicale, les soins intensifs leur procure un savoir-faire unique. La création de cette catégorie professionnelle répond à des exigences d’évolutions technologiques mais aussi une évolution par rapport à la conception de l’activité médicale et de la profession médicale en général. Le prodigueur de soin s’apparente à un « marqueteur ». Il ne s’agit plus de diagnostiquer une pathologie et de proposer un traitement. L’évolution sociodémographique des populations a fait que le patient s’interroge sur la qualité du soin fourni, l’existence d’autres alternatives, les mécanismes d’accompagnement, la communication avec sa famille etc. Donc, c’est la complexité engendrée par cette évolution qui a fait qu’un médecin tout seul ne peut plus affronter cette « mosaïque » de la prestation de soin. Les postes de « paramédicaux » sont une réponse à un environnement qui ne cesse de se multiplier. A la relation classique médecin-infirmier vient s’ajouter un autre profil de soignant celui des « paramédicaux ». Ainsi, la pratique médicale repose sur une action collaborative qui fait intervenir plusieurs profils de soignants. Les médecins qui par leurs statuts de « supérieurs 132 hiérarchiques » se permettent une certaine forme d’autorité. Les infirmiers, qui par leur proximité du patient cherchent à renforcer leur positionnement et les « paramédicaux » qui par leur formation pratique et consistante justifient la négociation.. Dans cet univers de triple interaction, la collaboration interprofessionnelle est plutôt entremêlée. En ce sens, se construit un système dans lequel le professionnel de santé doit composer avec la variabilité des pratiques. Penser la collaboration, dans ce cas-là, revient à penser la diversité. Dans «The system of professions», Abbott (1988) montre que les mutations au niveau de l’environnement économique, de l’action collective dans un secteur bien déterminé (ici de la profession médicale), de l’orientation des nouvelles réformes dans les institutions, de la relation des établissements des soins avec les universités et de la recherche scientifique, les frontières des compétences peuvent devenir floues. Des groupes professionnels peuvent se doter de compétences dans un champ donnée : «Les frontières de compétences sont perpétuellement en débat» (Abbott, 1988, p.2). I-2-2 L’unicité de la décision thérapeutique
Certains intervenants expliquent qu’ils discutent les décisions entreprises mais au final c’est le supérieur hiérarchique qui décide quoi faire : « Avec mon supérieur je discute si quelque chose ne convient pas. S’il n’est pas convaincu par mon avis de toute les manières il a une meilleure expertise et le travail doit marcher » n°7-infirmier-principal « Je prends l’avis de mes collègues et l’avis des médecins et je m’assure que c’est la bonne décision à prendre. » n°8-infirmière-principale « On demande toujours avis à nos supérieurs et nous discutons entre nous » n°20-infirmier La prise de décision s’inscrit dans un souci de conformité par rapport à la prestation de soin : « La conduite peut être changée ou par exemple le diagnostic peut être erroné et on corrige avec les seigneurs. L’essentiel que l’acte médical prend place et la prestation de soin doit continuer. Nos supérieurs nous expliquent et décident de ce qui est bon à faire » n°16-médecin L’unicité de la décision thérapeutique est essentielle dans un travail collaboratif centré sur le patient. Elle permet d’harmoniser les avis, de véhiculer une vision commune et de minimiser les erreurs. D’ailleurs, un répondant a exprimé sa difficulté à combiner des avis différents : 133 « C’est contraignant pour que cela marche il faut convaincre tout le monde pour que tout le monde adhère et que le travail avance. Nous devons avoir une même finalité. L’activité ne peut pas être trop brisée. Cela peut affecter la qualité du soin. » n°4-médecin A l’unicité de la décision thérapeutique s’oppose la notion de la variabilité de la pratique médicale. Un établissement de soin est caractérisé par la multiplicité des interventions. Un même patient peut être traité par plusieurs professionnels. Il peut faire l’objet de plusieurs « passations » Wennberg et Gittelsohn (cité dans Mousquès et al, 2003) ont démontré que la variabilité dans la pratique médicale s’explique par une différence entre les préférences individuelles (ou les valeurs) et les comportements des praticiens. Ces auteurs introduisent la notion de « l’incertitude professionnelle » comme pilier explicatif de la divergence dans la pratique médicale et « qui se manifeste tout au long du processus médical et influe sur la pratique des médecins » (Eddy, 1984, cité dans Mousquès et al, 2003, p.17). Ainsi, la variabilité de la décision médicale est la résultante de facteurs individuels émanant des perceptions individuelles et des visions particulières de chaque praticien dans les jugements à émettre pour une pratique médicale déterminée. Mousquès et al (2003, p.17) stipulent que « C’est l’exercice du jugement clinique, dans ces conditions d’incertitude et de singularité de la dé médicale, qui produit la variabilité de la décision médicale ». D’autres recherches ont montré que la variabilité résulte de la dissimilitude des contextes sociaux professionnels plutôt que des caractéristiques de préférences individuelles ou d’incertitude (Westert et al, 1993; Nieboer et Groenwegen, 1993; cité dans Mousquès et al, 2003). Donc, pour appréhender la CIP il convient de comprendre que le processus décisionnel peut vêtir deux formes : une continuité des soins qui tend à unifier la décision mais aussi une pluralité d’intervenants qui engendre la variabilité. La CIP se concrétise autour d’une activité centrée sur le patient et qui se comprend dans le paradoxe de l’unicité et de la variabilité.
I-3 La dimension de l’intériorisation
Les résultats montrent que la collaboration interprofessionnelle se structure autour des individus qui la pratiquent. Elle est ce que chacun reflète son image dans l’autre, comment chacun pense par rapport à l’autre, à ce qu’il dit et à ce qu’il fait. Et aussi la façon dont chacun croit que l’autre 134 se positionne par rapport à lui et à ses actions (Sainsaulieu, 2006). En d’autres termes, les intervenants cherchent à se créer une interconnaissance à travers une identité construite dans le collectif (Sainsaulieu, 2006). Trois sous-dimensions apparaissent pour rendre compte de cette composante : la confiance (et le respect), le processus d’interconnaissance, processus identitaire. Les résultats sont comme suit
I-3-1 La confiance et le respect
Les résultats montrent que la confiance et le respect reviennent de façon constante dans les réponses : « La confiance est primordiale pour avancer ensemble et le respect. Les deux mots maitres. Tout se construit là : la confiance et le respect. C’est une question de comment tu es avant tout » entretien n°4-médecin La confiance est considérée dans plusieurs recherches comme levier indispensable à la CIP au sein de l’équipe qui permet de maintenir la cohésion entre les membres. J-P. Blondel (2009, p. 7) dit que ce qui fait la cohésion de l’équipe « c’est la confiance de chacun dans les autres membres et dans les capacités de l’équipe en tant qu’
». Dans une étude qualitative, Reader et al (2007) ont démontré que la CIP est inhérente à la confiance mutuelle. Ils ont observé que la CIP était empreinte par un équilibre entre le respect et l’engagement vers la profession ainsi que la confiance mutuelle (ibid). Ce qui est approuvé par les résultats : « La confiance est très importante pour maintenir le travail et s’entraider mutuellement. Tout se base sur la confiance. Si je n’ai pas confiance avec qui je travaille je ne peux pas vraiment être bien au travail. Il faut que je connaisse mes collègues et je dois leur faire confiance. C’est aussi important que ce soit réciproque » entretien n°3-infirmier-principal Plusieurs répondants relient la CIP à la personnalité. Le maintien des relations interprofessionnelles est expliqué par la personnalité du répondant et sa capacité personnelle à développer la CIP : « Le relationnel c’est inné pour moi. Tu es bon avec les autres ou pas voilà. » n°1-Infirmier principal, « Cela dépend du caractère de la personne : il y a des personnes qui sont sociables donc ça marche et d’autres qui ne le sont pas donc c’est difficile de travailler avec eux » n°6-paramédical 135 « Il y a des personnes avec qui il est impossible d’établir quoi que ce soit alors que dire de collaborer. » n°13-psychologue L’expérience est aussi un attribut saillant dans les résultats ce qui va de pair avec les résultats d’autres recherches (Bedwell et al, 2012). Plusieurs répondants expliquent que l’expérience leur permet de mieux appréhender les relations avec les collègues. L’expérience permet de cumuler un « bagage relationnel » et « un savoir être » : « Cela dépend du niveau de l’expérience. Elle intervient dans la qualification de la relation. » n°1-infirmier-principal « C’est avec l’expérience et l’ancienneté que j’ai réussi à apprendre des choses et maitriser l’aspect relationnel de mon métier » n°9-Infirmière-principale; « Peu à peu avec l’expérience vous apprenez comment gérez les relations avec les collègues » n°20-Infirmier Une étude sur le travail interdisciplinaire de Strechi (2007) a montré que l’expérience a un effet positif sur le maintien des relations interprofessionnelles ainsi que l’établissement d’un climat de confiance entre les professionnels. A noter aussi que certains répondants ayant une expérience de court terme maintiennent volontairement de bonnes relations interprofessionnelles et concrétisent un travail collaboratif : « J’ai une petite expérience. Et je maintiens de bonnes relations avec tout le monde. » n°1 Ceci peut être expliqué par la nature de recrutement dans la fonction publique. En effet, pendant les deux premières années de travail, ces professionnels ne sont pas encore titulaires. Donc, le maintien de la CIP est en quelque sorte une attitude bien « calculée ». Aussi, cela peut être inhérent à l’effet de « halo » et à la construction d’une image de soi idéale au début d’un parcours professionnel. Pareillement pour le respect les résultats montrent que cet attribut est cité dans la plupart des réponses : « Le respect est très important il faut le maintenir ; sans respect on ne travaille pas.» 136 entretien n°10-Infirmière. Ce résultat est appuyé par plusieurs recherches (Careau, Vincent et Swaine, 2011, D’Amour et al, 2008). Les recherches indiquent que la confiance se maintient par la reconnaissance mutuelle des compétences et de l’expertise des collègues (Careau, Vincente et Swaine, 2011). Elle s’accompagne d’une attention empathique et d’une écoute active (idem). Elle s’établit dans une équipe lorsque les rôles sont bien définis. En d’autres termes, le travail interdisciplinaire se base sur la compréhension de l’enchevêtrement explicite des rôles et des tâches (D’Amour, 1997 ; Voyer, 2000) : ceci nous amène à parler d’une autre sous-dimension soit : le processus d’interconnaissance. I-3-2 Le processus d’interconnaissance
Ceci réfère à la capacité à comprendre les interdépendances professionnelles. Selon D’Amour et al (1999) : « C’est la prise de conscience de l’interconnaissance des acteurs et du degré d’information dont ils disposent les uns sur les autres. » (p.9). Les répondants se sont aussi exprimés par rapport à la méconnaissance des collègues. Elle est considérée comme contrainte au bon déroulement du travail interprofessionnel : « Ce n’est pas admissible que j’arrive un matin et que je trouve quatre collègues que je ne connais même pas qui viennent juste d’arriver. Je ne peux rien faire avec eux, je ne connais pas leurs noms et je ne connais même pas leurs spécialités. » n°13-psychologue. D’autre part, la méconnaissance de la « quotidienneté » des rôles et des contextes propres à chaque professionnel devient une source de conflits : « Le conflit s’établit dans la répartition des tâches entre les ouvriers et les aides-soignants et entre le partage des postes dans paramédicaux les infirmiers et les techniciens...et nous avons proposé aux surveillantes de donner des petites formations pour les ouvriers et les infirmiers il faut qu’ils comprennent qui fait quoi...il faut leur mentionner chacun son rôle et ses missions » n°13-psychologue. Certains professionnels de par la nature des tâches à accomplir travaillent en « solo » tels que : le technicien nutritionniste, le kinésithérapeute etc. Il est important dans ce cas de connaître la spécificité professionnelle de chaque membre. Cette prise de conscience évite les tensions entre les collègues de professions différentes. Le même résultat a été trouvé dans l’étude de Borrill et al (2013). Dans une étude qualitative, ils démontrent que les professionnels qui connaissent les s et les tâches des collègues s’intègrent plus facilement dans une démarche de 137 collaboration. Dans un travail d’équipe, la clarté des rôles et de celui des collègues est essentielle pour le maintien de la collaboration : « Moi je préfère exceller dans mes tâches que de dépenser de l’effort dans un travail qui ne concerne pas. Ici dans l’hôpital les tâches manquent de rigueur et ne sont pas cohérentes. Plus les choses sont claires et plus le travail devient facile à gérer. Faut bien connaître ce qui se passe autour et ce que fait chacun » Entretien n°6.-paramédical « Il faut diviser complètement le travail et chacun doit connaitre ce qu’il doit faire. La connaissance du rôle implique la capacité d’assumer ses responsabilités et la reconnaissance des responsabilités des autres : « chacun connait ses rôles et ses limites » n°13-psychologue ; « Nous faisons notre travail [...] chacun accompli son rôle » Entretien°21-aide-soignante. Cette connaissance est en mesure de moduler l’échange de connaissances entre les intervenants. En effet, certains répondants s’expriment sur la facilité des rôles interchangeables lorsqu’ils sont bien clairs : « Nous sommes multidisciplinaires dans le sens où il y a un problème on se remplace »Entretien n°24-kinésithérapeute-paramédical D’ailleurs, les professionnels de santé préfèrent dans la plupart des cas la mise au point d’une répartition des tâches claire et précise. Ils préfèrent que les territoires professionnels soient identifiés. « Parfois je suis obligée de faire le travail des infirmiers et même des ouvriers! Bon je le fais mais cela me dérange. J’ai eu une formation de technicienne j’ai des tâches à faire qui correspondent à mon profile. » n°5-Pharmacienne-chef-service. Dans certains cas, un problème d’identification des tâches à assumer peut aboutir à une ambigüité du rôle. Cette situation peut conduire à des illusions. L’individu se trompe par rapport à son rôle professionnel. À l’origine, cette ambigüité provient d’une divergence entre le rôle perçu et les attentes sociales par rapport à ce rôle. Elle apparait lorsqu’il existe un flou dans la définition des tâches : « La diversité des pratiques me bloquent. Lorsque je travaille je veux que tout soit bien clair et qu’on me dit exactement ce que je dois faire. Je ne peux pas travailler dans le flou. Je me sens perdu» n°13-psychologue. 138
Chaque individu a un sentiment d’appartenance par rapport à sa profession. Ce sentiment découle d’une socialisation conforme aux pratiques communes et aux roles perçus dans la dynamique collective ( Osty, 2008, cite dans Fray et Picouleau,2010). Lorsque les rôles sont bien définis et qu’il existe une connaissance mutuelle du territoire professionnel de chacun l’identité est bien construite. Ce niveau d’identité correspond à celui d’une identification par rapport au travail. Selon Fray et Picouleau (2010): «Cette identité est liée aux caractéristiques de la profession [...] l’individu s’identifie ici à l’activité du travail. » (p.78). La troisième sous-dimension explicite le processus identitaire. Elle est décrite comme suit.
I-3-3 Le processus identitaire
La CIP se concrétise lorsque les rôles sont bien définis et donc les identités sont bien claires. Ceci est perceptible à travers les réponses des répondants : « Chacun fait son métier et fait ce qu’il doit faire personne ne prend la place de l’autre. C’est comme ça que ça doit fonctionner. » n°1infirmier-principal; « Ma tâche c’est la mienne. C’est moi uniquement qui s’on occupe. Dans ma tête c’est clair ce que je fais et c’est quoi mon poste. Je me connais en quelque sorte » n°2-aidesoignante. « C’est comme une chaine : il faut que chacun fait son travail et son rôle. Le travail doit être bien répartit et moi personnellement je ne peux travailler si je ne sais pas ce que je dois faire. Je veux bien comprendre où j’en suis» n°12-kinésithérapeute-paramédical. Les travaux de Sainsaulieu (2006) affirment que les individus constituent leurs identités à travers des interactions simultanées. Ces interactions se construisent à travers les schèmes cognitifs de chacun des membres de ’organisation et influent sur leur interprétation des situations et des relations interpersonnelles. La construction de l’identité est un processus de négociation entre : les acteurs, l’institution, l’interaction avec les autres. Elle se situe entre l’expérience vécue et l’actualisation du présent (Rondeau, 2008). Donc la formation d’une identité est la résultante de l’interaction entre l’acteur et la société. A cet égard, Jenkins (1994, p.299) fait état de l’observation suivante: « It is in the meeting of internal and external definition that identity ether social or personal, is created ». 139 Certains auteurs évoquent la notion d’identité professionnelle pour désigner cet environnement multi-facettes et multi-acteurs. En effet, la question ‘qui sommes-nous? Saisir l’essence de l’identité en soulignant que celle-ci concerne les essais d’une entité de se comprendre soi-même. L’identité suppose donc la construction du sens focalisée vers le climat intérieur de l’organisation. Les activités de construction du sens sont particulièrement critiques dans des contextes dynamiques, où le besoin de créer et de maintenir des compréhensions cohérentes et des espaces de dialogues communs qui soutiennent les relations et permettent l’aboutissement d’une action collective, est spécialement important et défiant (Weick, 2000). Par ailleurs, la dialectique logique identitaire et perception du contexte peut conduire soit à une situation de conformité, dans laquelle la perception du contexte apparaît comme en continuité avec la logique identitaire, soit à une situation de dissonance cognitive, faisant référence à une rupture entre les racines identitaires des individus, la logique identitaire qu’ils adoptent comprise comme ensemble de croyances et de valeurs reliées entre elles et véhiculées par un groupe de référence, et leur perception de la réalité (du contexte) (Rondeau, 2008). Dans un environnement où les « mains » qui agissent sont multiple s, la construction d’un tout cohérent et commun devient une tâche difficile. Par ailleurs, l’identité est un processus évolutif. Il se transforme au contact de l’autre. Selon E.Lipiansky (1998) : « L’identité oscille entre la similitude et la différence, entre ce qui fait de nous une individualité singulière et qui dans le même temps nous rend semblables aux autres. » (1998, p.22). La dimension de l’intériorisation renvoie à l’appartenance à une équipe de travail et la prise de conscience de cette régulation. Cette régulation suggère une responsabilité partagée entre les membres d’une même équipe. Or, les propos de certains répondants confirment qu’il est utopique de parler de zones de responsabilités bien définies. Le travail d’équipe engendre un déséquilibre au niveau du partage de la responsabilité : On parle dans ce cas d’une responsabilité diluée. Ce résultat est la conséquence directe d’une régulation par rapport à l’équipe mal définie. En effet, les individus sont manipulateurs et ne coordonnent pas lorsqu’il s’agit d’attribuer les responsabilités. Ainsi, plusieurs répondants affirment que dans ce cas, le travail d’équipe est contraignant en termes de délimitation des responsabilités : « Il s’est installé un véritable manque de responsabilité » n°5-pharamacienne-chef-service.
140
«
C’est bien de collaborer
mais
travailler
en équipe je n’aime pas beaucoup car la responsabilité n’est pas
claire
!
Chaque personne compte sur
l’autre : par exemple dans le cas d’un oubli d’administration d’un médicament chacun va dire que c’est l’autre qui a oublié! La responsabilité concerne chacun : tu as un malade tu en es responsable! Et tu ne dois pas compter sur les autres pour moi la responsabilité elle est individuelle...chacun doit se sentir responsable » n°7-Infirmière-principale. « Sincèrement en équipe
C
’est
reposant
...mais en terme
de responsabilité
c
’est mieux de travailler tout seul...tu connais tes malades, tu sais ce que tu leur as donné. Lorsque tu fais le tour avec le médecin et qu’il te pose des questions tu réponds correctement or en équipe le travail est divisé et que chacun a fait quelque chose tu ne peux pas répondre correctement...si tu travail seul c’est mieux. C’est la prise en charge totale » n°9-Infirmière-principale
A ce niveau, la notion de la responsabilisation devient intéressante (Martuccelli, 2004). Elle désigne le fait que l’individu réaménage les actes passés et se rend compte de sa responsabilité vis-à-vis de ces actes. L’auteur avance l’idée suivante : « La responsabilisation se situe à la racine d’une exigence généralisée d’implication des individus dans la vie sociale et à la base d’une philosophie les obligeant à intérioriser sous forme de fautes personnelles, leurs situation d’exclusion ou d’échec » (idem, p.26). En quelque sorte, cette responsabilisation rend compte du fait que l’autonomie n’est pas « naturelle ». Elle est empeignée par une dimension de contrôle. Le processus pour rendre les professionnels plus autonomes n’est pas indépendant et se forme par un choix restreint (Martuccelli, 2004). La collaboration est dans ce cas un phénomène de va et vient entre le prescris, le compromis et le négocié. A cet égard, Samuelson et al (2012) confirme que la responsabilité est cruciale dans la mesure où elle évite « la collusion de l’anonymat ». L’individu caractérisé par une identité morcelée est : « plus que jamais avide de continuité dans cette relation personnelle sur le long terme. » (p.2255). Chaque professionnel a des responsabilités propres à son champ d’intervention. Sur le plan médico-légal, le professionnel de santé ne se détache pas de ses tâches et ne les dépasse pas (Buchet, 2008). Mais la « quotidienneté » et la « proximité du patient » oblige le professionnel à dépasser le cadre légal de ses compétences (Buchet, 2008). De plus, la répartition des tâches entre 141 plusieurs professionnels est susceptible de diluer « l’erreur professionnelle » étant donné qu’une faute peut être le résultat d’une succession de « petites irrégularités » (Samuelson et al, 2012). Pour ces professions indispensables dans la prestation des soins centrées autour du patient, il convient de bien délimiter les responsabilités. Elles doivent être explicitement définies. La collaboration interprofessionnelle implique une reconnaissance des compétences de chacun. En effet chaque profession a sa propre façon d’être exercée et possède des spécificités qui lui sont particulières. I-4 La gouverne Pareillement, cette dimension est validée par les résultats obtenus. Elle concerne le leadership et la connectivité, le partage des ressources et l’échange interservice. Les interprétations respectives sont exposées comme suit. I-4-1 Le leadership
Certains répondants ont expliqué l’importance de l’attitude de leur supérieur hiérarchique dans le développement des relations interprofessionnelles : « Notre chef hiérarchique est ouvert et compréhensif. Il nous incite à travailler en équipe » n°1-infirmier. Ils expliquent que le travail se base sur les indications du médecin :« Cela commence du médecin c’est lui qui connait tout le travail et connait tout ce qu’il faut faire c’est lui qui indique tout ce qu’il faut faire » n°15-aidesoignante. Les répondants affirment le rôle important joué par le chef hiérarchique dans le travail interprofessionnel : « Je pense que les supérieurs jouent un grand rôle dans l’incitation à un travail collectif» n°1-infirmier D’autres recherches ont abouti aux même résultats : le leadership permet aux subalternes de s’exprimer ouvertement sur les mésentente et/ou les accords et la participation des intervenants dans l’identification des problèmes ( Vogelsmeier, 2008 ; Voglesmeier et Scott, 2011, cité dans Museux, 2014). Analyser la collaboration interprofessionnelle revient à mettre en exergue les acteurs clés qui prennent la position de leaders pour faire émerger des mécanismes régulateurs des actions accomplies et assurer la cohésion entre les différentes parties prenantes et la construction d’une identité commune de l’hôpital dans un environnement multi-acteurs et multi142 niveaux (Grosjean et al, 2004). Ces « leaders » sont quotidiennement confrontés à interagir avec différentes parties prenantes : les patients, les autres praticiens, les fournisseurs, les organismes de tutelle (tels que le ministère de santé publique). Ces interactions produisent souvent des conflits d’intérêts. Un contexte pareil, conduit les leaders à mettre en œuvre des stratégies pour appréhender et circonscrire les problèmes les tensions qui émergent d’un climat organisationnel où les intérêts, les visions, les façons d’agir divergent et s’entrecoupent au même temps. Bref, il nous faut repenser notre conceptualisation du leadership. A cet égard, les théories du leadership nous expliquent que dans ces organisations complexes il n’est plus approprié de penser le leadership d’une façon hiérarchique. On parle désormais de leadership distribué, de co-leadership ou encore de leadership partagé (Denis et al 2012, Gronn 2002). En effet, Gronn (2002) nous dit que le nouveau prisme du leadership va au-delà de la relation exclusive entre deux personnes en relation bilatérale. Ceci s’explique par l’existence d’un savoir distribué et d’un pouvoir diffus dans les organisations complexes. Cette notion de leadership distribué renvoie à une sous-dimension de l’intériorisation soit le partage des territoires professionnels. Les répondants expliquent qu’il faut établir des zones de prises de décisions communes. Cette pratique est possible grâce à l’effort des supérieurs qui valorisent le partage des responsabilités. Les résultats montrent aussi que les intervenants préfèrent un supérieur hiérarchique qui leur permet de participer dans des processus collaboratifs de prise de décision et de résolution de problèmes « il faut impliquer le personnel et le motiver. C’est le rôle du chef. Ton personnel tu en es responsable. Tu l’impliques et tu parles avec eux » Entretien n°4 « Nous portons tous la blouse blanche. Donc nous faisons partie d’une même équipe. Tout le monde doit être impliqué dans la décision. Personne ne doit être exclu. » entretien avec la résidente en médecine d’urgence. I-4-2 Le partage des ressources
Le recours aux ressources matérielles entre les professionnels englobe en particulier, un partage des ressources, l’utilisation des équipements et des TIC ainsi que la répartition des tâches (Oandasan et al, 2006). Les résultats indiquent que les répondants partagent les ressources en cas 143 de manque et que ce partage se déroule dans de bonnes conditions « Le relationnel est important dans le partage des ressources. Généralement tout se déroule bien » n°2-aide-soignante Scott (1993) mentionne que les organisations de santé se caractérisent par une compétition quant à l’accès aux ressources. Ceci confirme la difficulté dans les échanges interservices qui a été relevée par les résultats. Le partage des ressources est facile lorsqu’il s’agit d’un même service. Dans certains cas, les professionnels sont obligés de s’approvisionner dans d’autres services. Les résultats montrent que le partage est facile lorsque la personne qui l’engage entretient de bonnes relations avec ledit service : « Nos surveillants se débrouillent et cela dépend de notre réseautage dans les autres services. Ce n’est pas toujours évident d’établir de bonnes relations. » Entretien n°20-infirmier
I-4-3 L’échange interservices
La confrontation du modèle théorique a permis d’esquisser la modélisation empirique des dimensions de la CIP. En ce qui concerne la dimension de la gouverne elle a été modélisée entre autre par l’échange interservice. Dans la littérature, la plupart des écrits se maintiennent à la notion du leadership pour appréhender la dimension de la gouverne (D’Amour et al, 1999, D’Amour et al, 2008). Nous estimons que la sous-dimension de l’échange-interservice mérite une discussion autour de son émergence car elle est peu citée dans la littérature. La conception de l’hôpital basée sur des unités spécialisées est devenue trop rigide pour les besoins émergents du domaine médical. L’activité est fragmentée. Cette différence entre les unités s’explique par les buts, les relations interprofessionnelles, le temps et de le degré de spécialisation horizontale (Mintzberg, 1982). La dispersion physique des services a créé des « trous » entravant la collaboration interservices. Cette constatation a été approuvée par les résultats de la recherche. Plusieurs répondants s’expriment sur la difficulté d’établir une collaboration entre les différents services du CHU « [...] ceci est très difficile car chaque service a sa propre manière d’être organisé » n°18. Dans certains cas, la collaboration n’existe même pas : 144
« Le conflit interservice est un problème qui existe depuis longtemps [...] il n’y a pas de collaboration normalement nous avons des staffs interservices mais il n’y pas! » n°17-résident. « Nos surveillants se débrouillent et cela dépend de notre réseautage dans les autres services. Ce n’est pas toujours évident d’établir de bonnes relations. Le courant ne passe pas entre certains chefs-services. Il y a des services avec lesquels il n’existe pas de liens » n°20-infirmier. D’autres affirment que la relation entre les chefs-service est souvent conflictuelle «Les chefs services ne
sont pas d’accord souvent c’est le cas et ils ne
s’entraident pas » n°18-infirmièreprincipale. « Les chefs service ne sont pas en entente. On n’arrive pas à partager des ressources physiques que dire humaines. Ils sont toujours des problèmes. » n°19-technicienne(paramédical).
| 10,317
|
56/tel.archives-ouvertes.fr-tel-00448216-document.txt_1
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 8,239
| 14,922
|
De nouveaux résultats sur la géométrie des mosaïques de Poisson-Voronoi et des mosaïques poissoniennes d'hyperplans du odèle Thèse soutenue le 5 décembre 2002 par Pierre CALKA en vue de l'obtention du Diplôme de Doctorat (arrêté du 30 mars 1992) Spécialité : Mathématiques Composition du jury
:
François BACCELLI André GOLDMAN Christian MAZZA Ilya MOLCHANOV Didier PIAU Dietrich STOYAN Pierre VALLOIS (ENS) (Université (Université (Université (Université (Université (Université 194-2002 Lyon 1), Directeur de thèse Lyon 1) de Berne, Suisse), Rapporteur Lyon 1) de Freiberg, Allemagne), Rapporteur Nancy 1)
Remerciements
Je tiens tout d'abord à remercier André Goldman qui m'a initié à la géométrie aléatoire avec une passion communicative. Toujours attentif au cours de ces trois années, il m'a fait profiter de ses connaissances étendues et de sa grande imagination mathématique. Son intuition et ses encouragements m'ont apporté la détermination pour approfondir certaines pistes de recherche. Ce travail lui doit beaucoup, qu'il trouve ici le témoignage de ma profonde gratitude. Ilya Molchanov et Dietrich Stoyan m'ont fait un grand honneur en acceptant d'être les rapporteurs de cette thèse. Je leur suis reconnaissant du soin qu'ils ont apporté à la lecture du texte et de toutes les remarques intéressantes dont ils m'ont fait part. Je remercie Christian Mazza et Didier Piau pour leur disponibilité, l'intérêt qu'ils ont porté à mon travail et les discussions enrichissantes que j'ai eues avec chacun d'eux. Leur présence dans ce jury m'honore et me touche particulièrement. François Baccelli a toute ma gratitude pour m'avoir fait l'honneur de faire partie de mon jury. Je remercie par ailleurs chaleureusement Pierre Vallois et André Mézin pour m'avoir accordé leur confiance en me proposant de travailler avec eux sur le problème de la fissuration. Je suis très reconna à Pierre Vallois de m'avoir permis à plusieurs
reprises
d'
exposer nos travaux,
ainsi que
d
'
avoir
accepté d'être dans ce jury
. Je
tiens également
à
remercier tous les membres
du
laboratoire qui m'ont apporté leur aide pour des questions
de
math
ématiques
propres
à la thèse
, les
enseignements, les problèmes informatiques
ou
autres. Je pense en particulier à Alexis, Anne, Eric, Frédérique, Gabriela, Jean, Jean-Baptiste, Mariam, Nadine, Nicolas, Pierre, Véronique et Madame Lefranc.
Merci enfin
à mes proches dont
le soutien
a été essentiel
tout
au long de mes études.
Table des matières Introduction. 1 La cellule typique comme moyen d'étude statistique aléatoire stationnaire.
1.1 Introduction......................... 1.2 La formule de Slivnyak.................... 1.3 La mosaı̈que de Poisson-Voronoi.............. 1.3.1 La cellule typique au sens de Palm......... 1.3.2 Convergence des moyennes empiriques....... 1.4 La mosaı̈que de Johnson-Mehl................ 1.4.1 La cellule typique au sens de Palm......... 1.4.2 Convergence des moyennes empiriques....... 1.5 La mosaı̈que poissonienne.................. 1.5.1 Convergence des moyennes empiriques....... 1.5.2 La cellule typique au sens de Palm......... d'une mosaı̈que........... 2 Résultats sur les lois des caractéristiques géométriques des mosaı̈ques de Poisson-Voronoi et poissoniennes de droites dans le plan.
2.1 Introduction et présentation des principaux résultats............. 2.1.1 Notations et contexte.......................... 2.1.2 Résultats connus sur les lois des caractéristiques géométriques fondamentales de la cellule typique de Poisson-Voronoi.......... 2.1.3 Résultats connus sur les lois des caractéristiques géométriques fondamentales des cellules typique et de Crofton d'une mosaı̈que poissonienne de droites............................ 2.1.4 Présentation des nouveaux résultats.................. 2.2 The explicit expression of the distribution of the number of sides of the typical Poisson-Voronoi cell........................... 2.3 Precise formulas for the distributions of the principal geometric characteristics of the typical cells of a two-dimensional Poisson-Voronoi tessellation and a Poisson line process............................ 2.4 The distributions of the smallest disks containing the Poisson-Voronoi typical cell and the Crofton cell in the plane................... 5 12 12 15 15 15 16 21 21 22 23 23 26 28 28 28 28 29 30 33 41 53
3 La fonction spectrale des mosaı̈ques de Poisson-Voronoi et de JohnsonMehl. 71
3.1 Présentation des résultats............................ 71
3.2
On the spectral function of the Poisson-Voronoi cells............. 75 4 Quelques conséquences de l'identité entre cellule typique et cellule empirique pour la mosaı̈que poissonienne d'hyperplans d-dimension
nelle
. 101 4.1 Présentation des résultats............................ 101 4.2 Poissonian tessellations of the Euclidean space. An extension of a result of R. E. Miles.................................... 103 5 Une preuve rigoureuse d'un résultat de R. E. Miles sur les mosaı̈que poissoniennes épaissies. 115 5.1 Introduction................................... 115 5.2 A rigorous proof of a result of R. E. Miles concerning the thickened Poisson hyperplane process in Rd...........
6 Modélisation stochastique d'un phénomène unidirectionnel de fissuration. 129
6.1 Introduction et présentation des résultats...................
129 6.2 Stochastic modelling of a unidirectional multicracking phenomenon..... 133 7 Annexes. 7.1 An elementary proof of the equality EN0 (C) = 6........ 7.2 On the spectral function of the Johnson-Mehl cells....... 7.3 A new calculation of the moments of the unoccupied part of a random covering of i.i.d. intervals of fixed length........ Introduction. La géométrie aléatoire remonte, comme la tradition le veut à l'expérience de l'aiguille de Buffon en 1777, au paradoxe de Bertrand sur les probabilités géométriques, et à la réplique fournie par H. Poincaré qui a conduit à la naissance de la géométrie intégrale puis de la géometrie stochastique (terme introduit par D. G. Kendall, K. Krickeberg et R. E. Miles en 1969). On pourra consulter par exemple les ouvrages classiques de H. Solomon [84], L. A. Santaló [77]. et G. Matheron [48]. De nos jours ce domaine a pris une telle extension, du fait notamment de ses innombrables implications dans les sciences expérimentales qu'il n'est pas possible d'en donner une vue exhaustive dans un volume raisonnable de lignes. Nous renvoyons pour cela aux excellents ouvrages de P. Hall [32], D. Stoyan et alt. [86], I. S. Molchanov [62], B. D. Ripley [76], etc. Dans cette thèse, nous avons abordé quatre domaines de la géométrie stochastique. A. B. C. D. Les mosaı̈ques de Poisson-Voronoi ; les mosaı̈ques de Johnson-Mehl ; les mosaı̈ques poissoniennes d'hyperplans ; le modèle de fissuration de Rényi-Widom. A. Le principe de la construction de la mosaı̈que de Voronoi est le suivant. On se donne un sous-ensemble localement fini P d'un espace métrique sous-jacent (E, d), puis à tout élément x ∈ P (appelé germe), on associe la cellule C(x) = {y ∈ E; d(y, x) ≤ d(y, x′) ∀x′ ∈ P}, constituée des points de E les plus proches de x. Dans le cas euclidien, on obtient ainsi une partition de l'espace en polyèdres convexes bordés par des portions d'hyperplans médiateurs des segments entre germes. Cette mosaı̈que fut introduite dans un cadre déterministe en dimension deux par G. L. Dirichlet [18] en 1850, puis en dimension supérieure par G. Voronoi [91] en 1908. Leur motivation était de résoudre des problèmes de minimisation de formes quadratiques prises sur des vecteurs à coordonnées entières. En 1953, dans le but de modéliser la formation de cristaux, J. L. Meijering [50] a repris la construction de Voronoi avec un ensemble de germes aléatoires, plus exactement un processus ponctuel de Poisson. Le modèle obtenu, appelé la mosaı̈que de PoissonVoronoi, est depuis largement utilisé pour modéliser différents phénomènes naturels. Selon R. Van de Weygaert [90], les galaxies sont situées à la périphérie de cellules de PoissonVoronoi en modélisant les centres d'expansion de la matière par un processus de Poisson. De même, M. Gerstein, J. Tsai et M. Levitt [22] ont approché la forme d'une molécule 7 de protéine en construisant les cellules de Voronoi associées à l'ensemble aléatoire des centres des atomes constituant cette molécule. Plus généralement, de nombreux problèmes concrets qui relèvent de territoires de prédominance modélisent à l'aide de mosaı̈ques de Poisson-Voronoi, notamment en météorologie [11], écologie [74] ou encore épidémiologie [49]. Citons enfin les applications aux télécommunications qui ont rencontré un grand succès récemment. On pourra consulter notamment les travaux de F. Baccelli et alt. [2], [3], [4], de S. G. Foss et S. A. Zuyev [21] ou I. S. Molchanov et S. A. Zuyev [61]. Les mosaı̈ques de Voronoi aléatoires jouent également un rôle essentiel depuis quelques années en informatique dans les secteurs de la reconnaissance de formes [12] et de compression d'images [51]. Dans de nombreux cas, le modèle de Poisson-Voronoi apparaı̂t naturellement comme le plus adapté. Il permet en outre d'utiliser certaines techniques propres au processus de Poisson. Cependant, il n'est pas le seul modèle possible de mosaı̈que de Voronoi aléatoire (voir par exemple l'étude générale conduite par J. Møller des mosaı̈ques de Voronoi stationnaires [65] ou les travaux de G. Le Caër et J. S. Ho [44]). On pourra se reporter à ce sujet à l'ouvrage très complet de Okabe et alt. [69]. Dans notre travail, nous ne traiterons que le cas des mosaı̈ques de Poisson-Voronoi. Historiquement, les premiers travaux dans l'étude théorique de la mosaı̈que de PoissonVoronoi remontent à 1961 et sont dûs à E. N. Gilbert [23], qui l'a utilisée pour modéliser la formation de cristaux et s'est intéressé aux propriétés de sa "cellule typique". Il a en particulier fourni le meilleur encadrement connu à ce jour de la queue de la loi du volume de la cellule typique. Depuis, R. E. Miles [57] en 1970 et J. Møller [63], [65] en 1994 ont précisé la notion de cellule typique. Ils ont de plus calculé les premiers moments des aires des faces k-dimensionnelles (k étant inférieur à la dimension de l'espace euclidien) et ont décrit la démarche qui permet d'obtenir les seconds moments ainsi que les corrélations s'exprimant par des formules assez compliquées. Tout récemment, A. Hayen et M. Quine ont donné une formule intégrale pour le troisième moment de l'aire en dimension deux [34]. Cependant, peu de distributions explicites ont été obtenus jusqu'à aujourd'hui, ce qui explique le recours intensif aux procédés de simulation (voir par exemple les résultats de A. L. Hinde et R. E. Miles [36] ou de S. Kumar et S. K. Kurtz [43]). Quelques résultats sur les lois ont été prouvés dernièrement le cadre de problèmes de télécommunications par S. G. Foss et S. A. Zuyev [21], S. A. Zuyev [94] et Baccelli et alt. [3]. Ceux-ci ont notamment déterminé un encadrement de la queue de la loi du rayon du disque circonscrit à la cellule typique en dimension deux et la loi, conditionnée par le nombre d'hyperfaces, du volume du "domaine fondamental". Par ailleurs, dans le cadre de la stéréologie, les propriétés des sections de la mosaı̈que de Poisson-Voronoi par des sous-espaces affines ont été étudiées successivement par L. Muche et D. Stoyan [67], S. N. Chiu, R. van de Weygaert et D. Stoyan [13] et L. Heinrich [35]. Enfin, on peut définir une mosaı̈que duale de la mosaı̈que de Voronoi, appelée mosaı̈que de Delaunay en reliant par des segments les germes dont les cellules associées ont des frontières communes. On obtient alors une partition de l'espace en simplexes. On connaı̂t la loi explicite de la cellule typique de cette mosaı̈que [65] et on peut en déduire des résultats sur l'angle typique ou la distance typique entre deux germes voisins (voir l'article de L. Muche [66]). Dans notre travail, nous exhibons dans le cas deux-dimensionnel les formules exactes de 8 la loi du nombre de côtés de la cellule typique [9] et des lois conditionnelles, connaissant le nombre de côtés, de l'aire de la cellule, de son périmètre, de l'aire du domaine fondamental et plus généralement du vecteur constitué des positions relatives des côtés [10]. Notons que notre démarche s'applique également à la dimension supérieure, les formules qui en résultent étant néanmoins peu explicites. Par ailleurs, toujours en dimension deux, nous précisons la loi conjointe du couple formé des rayons des disques (centrés à l'origine) inscrit et circonscrit de la cellule typique et en déduisons le caractère "circulaire" des cellules de la mosaı̈que ayant un grand rayon de disque inscrit [8]. La technique employée repose sur des propriétés de recouvrement du cercle qui ne s'étendent pas en dimension supérieure à deux. Enfin, dans un travail en collaboration avec A. Goldman, nous nous sommes intéressés aux propriétés vibratoires des cellules de la mosaı̈que en toute dimension en étudiant le spectre du Laplacien avec condition de Dirichlet au bord de la cellule typique. Nous relions la fonction spectrale (ou transformée de Laplace de la fonction de répartition du spectre) à la trajectoire pont brownien et en déduisons en dimension deux une estimation logarithmique de la loi de la première valeur propre [29], [30]. Le développement au voisinage de l'origine de l'espérance de la fonction spectrale fournit également des informations sur la géométrie des cellules. B. Afin de représenter la formation de cristaux dans des systèmes métalliques générés par des germes en croissance, W. A. Johnson et R. F. Mehl [38] ont introduit en 1939 un modèle plus général que le précédent. En effet, si on place des germes au même instant dans l'espace Rd en les faisant croı̂tre ensuite à même vitesse, on obtient naturellement la mosaı̈que de Voronoi associée. En revanche, si ces germes apparaissent à des instants différents, la partition de l'espace obtenue n'est plus constituée de polyèdres convexes mais seulement de convexes étoilés bordés par des portions d'hyperboloı̈des. La mosaı̈que obtenue est dite de Johnson-Mehl. Notons que le cas unidimensionnel présente également un intérêt non négligeable (voir par exemple le travail récent de S. N. Chiu et C. C. Yin [14]). Il sert en particulier de modèle stochastique pour la réplication de l'ADN [17]. L'étude mathématique de la mosaı̈que de Johnson-Mehl a été conduite par E. N. Gilbert [23] et J. Møller [64]. Théoriquement, il est possible de généraliser la plupart des calculs de moments obtenus dans le cas Poisson-Voronoi. Cependant, il devient rapidement ardu d'expliciter les intégrales en dimension supérieure à deux. Dans cette thèse, nous avons cherché à prolonger l'étude du spectre du Laplacien des cellules de la mosaı̈que que nous avions menée dans le cas Poisson-Voronoi. De manière générale, on ne dispose pas d'informations précises sur les valeurs propres d'un domaine fixé sans propriété particulière (de convexité ou polyèdrale par exemple). Dans ce contexte, il est intéressant d'obtenir des résultats sur la fonction spectrale de la cellule typique de Johnson-Mehl. Précisément, nous relions celle-ci au pont brownien et déterminons un développement à deux termes au voisinage de l'origine via des conditions explicites d'intégrabilité [29]. C. C'est dans le cadre physique très précis de l'étude des trajectoires de particules dans les chambres à bulles que S. A. Goudmit [31] a introduit en 1945 la mosaı̈que poissonienne d'hyperplans en dimension deux En 1964, R. E. Miles utilise cette mosaı̈que afin 9 de modéliser les fibres de papier. Il a fourni à cette occasion l'essentiel des résultats en loi et des calculs de moments empiriques connus aujourd'hui [54], [55]. De manière générale, hormis quelques exceptions notables comme les travaux ultérieurs de R. E. Miles [56], [58] et ceux de G. Matheron [48], la plupart des écrits sur la mosaı̈que poissonienne d'hyperplans se limitent au cas deux-dimensionnel. Récemment, A. Goldman a étudié le spectre du Laplacien des cellules [26] et a par ailleurs [28] précisé une ancienne conjecture dûe à D. G. Kendall (voir par exemple [86]) selon laquelle les cellules dont l'aire est "grande" ont une forme approximativement circulaire. Ce dernier travail a été prolongé depuis par I. N. Kovalenko [42]. Ajoutons que K. Paroux a obtenu des théorèmes centraux-limites dans ce contexte [72]. Dans notre travail, nous donnons des formules explicites en dimension deux des lois du nombre de côtés de la cellule typique (resp. de la cellule contenant l'origine) et des lois conditionnelles, connaissant le nombre de côtés, de l'aire de la cellule, de son périmètre et du vecteur constitué des positions des côtés de la cellule typique (resp. de la cellule contenant l'origine) [10]. Comme dans le cas des mosaı̈ques de Poisson-Voronoi, la technique se généralise en toute dimension bien qu'il soit plus difficile d'expliciter les intégrales. De plus, toujours en dimension deux, nous calculons la loi conjointe du couple formé des rayons des disques (centrés à l'origine) inscrit et circonscrit de la cellule contenant l'origine. Nous en déduisons une nouvelle vérification théorique de la conjecture de D. G. Kendall [8]. Par ailleurs, nous prolongeons à toute dimension un résultat dû à R. E. Miles en dimension deux [59] en exhibant une réalisation explicite de la cellule typique à partir de sa boule inscrite et de son simplexe circonscrit dont nous donnons les lois exactes [6]. Enfin, nous retrouvons de manière rigoureuse en toute dimension un résultat de R. E. Miles [54], énoncé en dimension deux, concernant les mosaı̈ques poissoniennes d'hyperplans épaissies [7]. D. On considère un système physique constitué d'un substrat recouvert d'un dépôt d'épaisseur négligeable comme, par exemple, une couche de terre sur un étang ou une couche de peinture sur un mur. Lorsque l'on applique une force unidirectionnelle à cet ensemble, on constate expérimentalement du fait de son inhomogénéité, la formation de fissures (sur le plan du dépôt) que l'on modélise en première approximation par des droites parallèles entre elles. Etudier leur position revient à décrire l'ensemble constitué des projections de ces droites sur un axe dirigé par la force de traction. La représentation probabiliste de ce phénomène doit prendre en compte le principe physique de relaxation de la contrainte selon lequel aucune fissure ne peut apparaı̂tre "à proximité" d'une fissure préexistante. C'est pourquoi il est licite de choisir le modèle de Rényi-Widom, connu également dans la littérature sous le nom de modèle "des places de parkings". Plus précisément, on dispose d'une suite ordonnée de points que l'on appelle les "positions potentielles", indépendants et identiquement distribués de loi uniforme sur un intervalle fixé. Par ailleurs, on fixe r > 0. On conserve le premier point, puis de manière récursive, on décide de conserver le nième point, n ≥ 1, lorsque sa distance aux points conservés jusqu'à l'étape (n − 1) est supérieure à r. Dans le cas contraire, on le supprime et on poursuit l'algorithme. Dans le cadre de notre modèle, chaque point représente la position d'une fissure. 10 Il est a priori difficile de déterminer la loi (ou même le premier moment) du nombre de fissures effectivement construites sur l'intervalle lorsqu'on dispose d'un nombre fixe (ou poissonien) de fissures "potentielles" au départ. Ainsi, les principaux résultats sur ce sujet sont de nature asymptotique lorsque l'on fait tendre la longueur de l'intervalle vers l'infini. En 1958, A. Rényi [75] a étudié le modèle à saturation, c'est-à-dire lorsqu'il n'est plus possible de rajouter de nouveau point sur l'intervalle. Il a obtenu en particulier une formule explicite de l'intensité limite (nombre moyen de points par unité de longueur). B. Widom [92] a par la suite calculé par des méthodes plus ou moins heuristiques, la loi limite d'une "distance typique" entre deux points successifs lorsque le nombre de points "potentiels" est proportionnel à la longueur de l'intervalle. Il paraı̂t donc naturel de chercher à obtenir un processus ponctuel limite en loi sur la droite réelle lorsqu'on étend les bornes de l'intervalle de départ à l'infini. Dans un travail en collaboration avec A. Mézin et P. Vallois, nous définissons directement l'objet limite comme étant un processus ponctuel stationnaire et ergodique sur la droite en associant à chaque position de fissure une seconde coordonnée qui correspond au niveau de contrainte exact auquel elle apparaı̂ . Nous procédons à l'étude statistique de ce modèle en déterminant explicitement l'intensité de fissuration et la loi conjointe d'un couple constitué de la "distance inter-fissures typique" et du "niveau de contrainte typique associé". Nous retrouvons en particulier les résultats de A. Rényi et B. Widom. Nous revenons ensuite à une vision "locale" du processus point par point en déterminant la loi conjointe des n premières positions de fissures à droite de l'origine, n ≥ 1. Nous montrons en particulier qu'il s'agit de la loi des n premiers points d'un processus de renouvellement conditionné et nous en déduisons un algorithme de simulation. D'autres mosaı̈ques aléatoires ont été étudiées dans la littérature. Chapitre 1 La cellule typique comme moyen d'étude statistique d'une mosaı̈que aléatoire stationnaire.
1.1 Introduction. Dans ce travail, trois types de mosaı̈ques aléatoires de l'espace euclidien Rd, d ≥ 2, sont considérés : (i) la mosaı̈que de Poisson-Voronoi Vd ; (ii) la mosaı̈que de Johnson-Mehl Jd ; (iii) la mosaı̈que poissonienne d'hyperplans Pd. (i) Rappelons que la mosaı̈que de Poisson-Voronoi Vd [50], [23], s'obtient en prenant un processus ponctuel de Poisson Φ sur Rd de mesure d'intensité la mesure de Lebesgue canonique notée Vd et en considérant la partition de l'espace Rd constitué par les cellules C(x) = {y ∈ Rd ; ||y − x|| ≤ ||y − x′ ||, x′ ∈ Φ}, x ∈ Φ. Notons que pour tout x ∈ Φ, l'ensemble C(x) est un polyèdre convexe borné. (ii) Plus généralement, soit Φ = {(xi, ti ) ∈ Rd × R+, i ≥ 1} un processus ponctuel de Poisson dans l'espace Rd × R+ de mesure d'intensité Vd (dx)Λ(dt), où Λ est une mesure localement finie sur R+ satisfaisant les conditions "canoniques" imposées par J. Møller [64] : Λ([0, ∞)) > 0, (1.1) et λ= où Z p(t)Λ(dt) < +∞ Z t d p(t) = exp −ωd (t − w) Λ(dw), (1.2) (1.3) 0 ωd étant le volume de la boule-unité de Rd. On construit la mosaı̈que de Johnson-Mehl de la manière suivante : pour tout (x, t) ∈ Φ, un germe naı̂t à la position x dans l'espace Rd à l'instant t ≥ 0. Puis il grossit à 12 vitesse constante (prise égale à 1) de telle manière qu'il atteint le point y ∈ Rd à l'instant T(x,t) (y) = t + ||x − y||. On définit la cellule C(x, t) associée au couple (x, t) comme l'ensemble C(x, t) = {y ∈ Rd ; T(x,t) (y) ≤ T(x′,t′ ) (y), (x′, t′ ) ∈ Φ}. L'ensemble de toutes les cellules non vides constitue la mosaı̈que de Johnson-Mehl Jd [23]. Lorsque Λ est une mesure de Dirac, c'est-à-dire que tous les germes apparaissent simultanément dans Rd, Jd est une mosaı̈que de Poisson-Voronoi. Cependant, dans le cas contraire, les cellules sont des domaines bornés par des portions d'hyperboloı̈des. Remarquons par ailleurs que la condition (1.2) garantit que le nombre de cellules non vides dont le germe associé appartient à un borélien fixé de mesure de Lebesgue finie, est d'espérance finie [64]. (iii) Finalement, soit Φ un processus de Poisson dans Rd de mesure d'intensité Z +∞
Z X μ(A) = E 1A (x) = 1A (r, u)dνd (u)dr, A ∈ B(Rd ). (1.4) 0 x∈Φ Sd−1
Pour tout x ∈ Rd, on considère l'hyperplan polaire H(x) associé défini par H(x) = {y ∈ Rd ; (y − x) * x = 0}, (1.5) où * est le produit scalaire usuel de Rd. L'ensemble H(Φ) = {H(xi); xi ∈ Φ} est appelé un processus poissonien d'hyperplans dans Rd et la fermeture d'une composante connexe de l'ensemble Rd \ ∪xi ∈Φ H(xi ) une cellule associée à H. Alors presque sûrement, les cellules sont des polyèdres convexes qui constituent une partition de Rd, appelée la mosaı̈que poissonienne d'hyperplans Pd [54], [55]. Ces trois types de mosaı̈ques aléatoires sont stationnaires. Pour d'autres exemples de mosaı̈ques stationnaires, on pourra consulter [86] ou [69]. Afin de conduire l'étude statistique des mosaı̈ques aléatoires stationnaires (en vue des nombreuses applications, voir les deux ouvrages déjà cités), on introduit classiquement la notion de cellule typique. De fait, celle-ci a été définie de différentes manières suivant les modèles et les écoles mathématiques. Ainsi, historiquement une première approche remonte au travail de C. Palm [70] dans le domaine des télécommunications et consiste à associer à chaque cellule C un point z(C) (par exemple le centre de la boule inscrite dans C, son germe pour les mosaı̈ques Vd et Jd, etc) de telle manière que l'ensemble des points choisis constitue un processus stationnaire Ψ d'intensité finie ψ. On définit ensuite la cellule typique C en loi : pour toute application mesurable bornée h définie sur l'ensemble des connexes compacts de Rd, Eh(C) = 1 E ψVd (B) X x∈Ψ;x=z(C) 13 h(C(x) − x), où B est un ensemble borélien fixé de Rd, vérifiant 0 < Vd (B) < +∞ Cette définition ne dépend pas du borélien B choisi. La technique est usuellement appliquée pour l'introduction des mosaı̈ques de Poisson-Voronoi [63],[65] et de JohnsonMehl [64]. Intuitivement, ce procédé revient à "choisir une cellule au hasard" dans la mosaı̈que aléatoire. Une seconde approche consiste à appliquer la technique empirique (l' échantillonage). On considère une fonctionnelle h sur les connexes compacts de Rd invariante par translation et on considère la moyenne empirique des h(C) prise sur toutes les cellules C qui interceptent la boule centrée en l'origine, de rayon R ≥ 0. On prouve que ces moyennes empiriques convergent quand R tend vers l'infini, vers une constante presque-sûre, appelée la moyenne empirique de h, Une troisième approche consiste à étudier une cellule particulière (par exemple la cellule C0 contenant l'origine) en la renormalisant convenablement. La cellule C0 s'appelle la cellule de Crofton dans le cas de la mosaı̈que Pd. Contrairement au cas des mosaı̈ques de Poisson-Voronoi et de Johnson-Mehl, l'étude statistique des mosaı̈ques poissoniennes d'hyperplans a été conduite par R. E. Miles [54], [55], [59] (et son école [16], [48]) au moyen de la cellule empirique. 14 Un des outils essentiels dans l'étude des mosaı̈ques Vd et Jd est la formule de Slivnyak [83]. Cette formule est en particulier très utile pour réaliser la cellule typique. Dans le cas de la mosaı̈que Pd, le fait que la cellule typique puisse être construite via un procédé de Palm mous permettra par la suite (voir chapitre 4) d'appliquer la formule de Slivnyak.
1.2 La formule de Slivnyak. Soit Φ un processus ponctuel de Poisson dans Rd de mesure d'intensité X MI (A) = E 1A (x). x∈Φ Le processus Φ est une application mesurable à va
leurs
dans
l'espace
Mσ
des suites localement finies, ce dernier
étant muni de
la tribu
cylindr
ique Tc
engend
rée par les applications Mσ −→ N ∪ {+∞} φA
:,
A ∈ B(Rd ).
γ 7−
→
#
(A
∩
γ)
Pour toute fonction f positive mesurable définie sur l'espace produit (Rd )n × Mσ, n ∈ N∗, et invariante par permutation des n premières coordonnées, on dispose de la formule de Slivnyak (voir par exemple [65]) :
Z X
1
(n) f (ξ
,
Φ) = Ef (ξ, Φ ∪ ξ) dMI (ξ), (1.6) E n! (n) ξ∈Φ
où Φ (n) désigne l'ensemble des parties de Φ de cardinal n, et où dMI 1.3 1.3.1
(n) (ξ) = dMI (ξ1 ) * * * dMI (ξn ), (n) ξ = {ξ1, * * * ξn }
∈ Φ. La mosaı̈que de Poisson-Voronoi. La cellule
typique au sens
de Palm. Introduisons la notion de cellule typique C au sens de Palm. On considère pour cela l'espace K des ensembles convexes compacts de Rd muni de la topologie usuelle de Hausdorff. Fixons un ensemble borélien borné B ⊂ Rd de mesure de Lebesgue non nulle. Classiquement, la cellule typique C est définie par l'identité [65] : Eh(C) = X 1 E h(C(x) − x), Vd (B) x∈B∩Φ où h : K −→ R parcourt l'ensemble des fonctions numériques, mesurables et bornées. Considérons par ailleurs la cellule C(0) = {y ∈ Rd ; ||y|| ≤ ||y − x||, x ∈ Φ}, 15 obtenue en rajoutant l'origine au processus ponctuel Φ. On démontre alors en utilisant la formule de Slivnyak (voir [65]) que C(0) coı̈ncide en loi avec la cellule typique C. Par ailleurs, il est bien connu que C est reliée en loi à la cellule contenant l'origine C0 de la manière suivante ([65], Prop. 3.3.2.) : 1 h(C0 ) Eh(C) =, (1.7) E E(1/Vd(C0 )) Vd (C0 ) pour toute fonction mesurable bornée h : K −→ R invariante par translation.
1.3.2 Convergence des moyennes empiriques. Montrons à présent la convergence des moyennes empiriques sur la mosaı̈que Vd. En dimension d ≥ 3, cette propriété est nouvelle. La preuve repose sur le théorème ergodique de Wiener [93]. Aussi, nous allons tout d'abord démontrer l'ergodicité de la mosaı̈que. On réalise Ω comme l'espace Mσ muni de la tribu Tc. Φ est alors l'application identité sur Ω. Pour tout a ∈ Rd fixé, l'application {xi ; i ≥ 1} 7−→ {xi + a; i ≥ 1} induit classiquement une transformation T a : Ω −→ Ω préservant la mesure. Proposition 1.3.1 T a, a ∈ Rd, préserve la mesure et est ergodique. Preuve. L'invariance par translation de la mesure de Lebesgue sur Rd implique que T a preserve la probabilité P. Pour prouver l'ergodicité, il suffit de vérifier que T a est fortement mélangeante, c'està-dire que pour tous A, B boréliens bornés de Rd et tous k, l ∈ N,
lim P{#(Φ ∩ A) = k) ∩ (#(T −a (Φ) ∩ B) = l)} = P{#(Φ ∩ A) = k} * P{#(Φ ∩ B) = l}. |a|→+∞ (1.8)
Remarquons #(T (Φ) ∩ B) = #(Φ ∩ (B + a)) et que les ensembles A et B + a sont disjoints pour |a| suffisamment grand. Par conséquent, les évènements {#(Φ ∩ A) = k} et {#(T −a (Φ) ∩ B) = l} sont indépendants. Nous avons donc
−a P{(#(Φ ∩ A) = k) ∩ (#(T −a (Φ) ∩ B) = l)} = P{#(Φ
∩
A) = k}
*
P{#(Φ ∩ (B +
a)) = l} = P{#(Φ ∩ A) = k} * P{#(T −a (Φ) ∩ B) = l}
=
P
{#(Φ ∩ A) = k} * P{#(Φ ∩ B) = l},
la de
rnière égalité se
déduisant du fait
que Φ
est
invariant par
T −a. On a donc bien prouvé l'égalité (1.8), ce qui implique l'ergodicité de la mesure. 2 Notons CR (resp. CR′ ) l'ensemble des cellules de Vd incluses dans la boule ouverte B(R) centrée à l'origine et de rayon R > 0 (resp. interceptant la frontière de B(R)) et NR = #CR (resp. NR′ = #CR′ ). 16 Lemme 1.3.2 (NR + NR′ ) est intégrable. Preuve. Soit L0 le rayon du plus petit disque centré à l'origine qui n'intercepte pas Φ. La loi de L0 est alors fournie par l'égalité d P{L0 ≥ r} = e−ωd r, r ≥ 0, où ωd est la mesure de Lebesgue de la boule-unité de Rd. Il est bien connu que conditionnellement à l' évènement {L0 = r}, r > 0, Φ est égal en loi à Φr ∪ {X0 }, où Φr est un processus de Poisson de mesure d'intensité 1B(r)c * Vd et X0 est un point indépendant uniformément distribué sur la sphère ∂B(r). Soit x ∈ Φ tel que C(x) ∩ B(R) 6= ∅, c'est-à-dire qu'il existe un point y ∈ B(R) tel que ||y − x|| ≤ ||y − X0 ||. Nous avons alors ||x|| ≤ 2R + L0, et donc NR + NR′ ≤ #(Φ ∩ D(2R + L0 )). En prenant l'espérance de l'égalité (1.9), nous déduisons que
Z +∞ d ′ E(NR + NR ) ≤ E{#(Φ ∩ D(2R + L0 ))|L0 = r}dωdr d−1 e−ωd r dr Z0 +∞ d ≤ (ωd ((2R + r)d − r d ) + 1)dωdr d−1 e−ωd r dr < +∞. (1.9) 0
2 Considérons h : K −→ R+ une fonction mesurable, invariante par translation et bornée ( Kh désignant une borne de |h|). En appliquant les égalités C0 (T −a ω) = Ca (ω) −a, a ∈ Rd, ω ∈ Ω, nous obtenons les identités presque-sûres suivantes : Z
dx NR (ω) 1 1 = + ε(R, 1, ω) (1.10) −x v(R) B(R) Vd (C0 (T ω)) v(R) v(R) Z 1 1 1 X h(C0 (T −x ω)) h(Ci (ω)) + dx = ε(R, h, ω), (1.11) −x v(R) B(R) Vd (C0 (T ω)) v(R) C∈C v(R) R
où v(R) = Vd (B(R)), et ε(R, h, *) = X ′ C∈CR h(C) * Vd (C ∩ B(R)) p.s Vd (C) En prenant l'espérance de (1.11), nous obtenons que Kh |h(C0 )| ≤ E(NR + NR′ ) < +∞. E Vd (C0 ) v(R) Comme les transformations T a, a ∈ Rd, sont ergodiques, nous pouvons appliquer le théorème ergodique de Wiener [93]. Par conséquent, en supposant que lorsque R → +∞, la contribution du reste ε(R, h, ω) disparaı̂t, c'est-à-dire ε(R, h, *)/v(R) → 0 p.s. quand R → +∞, nous disposons du théorème suivant.
17
(1.12)
Théorème 1.3.3
Pour toute application h mesurable, bornée et invariante par translation, presque sûrement, 1 1 X h(C0 ) e h(C) = Eh = lim. (1.13) E R−→∞ NR E (1 /V V d (C0 )) d (C0 ) C∈C R e = Eh(C). En particulier, Eh Afin de prouver le théorème 1.3.3, il faut vérifier que la technique est valable, c'est-à-dire que la convergence (1.12) est vraie. Nous avons p.s. l'inégalité |ε(R, h, *)| N′ ≤ Kh * R. v(R) v(R) Par conséquent, il suffit de montrer la proposition suivante qui est la difficulté principale dans la construction des lois empiriques : Proposition 1.3.4 Quand R → +∞, on a : NR′ /v(R) → 0 p.s Preuve. Nous proposons ici une généralisation à toute dimension de l'argument fourni par R. Cowan dans le cas deux-dimensionnel [15], [16]. Afin de prouver la proposition 1.3.4, nous devons introduire quelques nouvelles notations. En appliquant le lemme 1.3.6 à k = d, nous obtenons clairement la proposition 1.3.4. 2 Concentrons-nous à présent sur la preuve des deux lemmes : Preuve du lemme 1.3.5. Fixons 0 ≤ k ≤ d et montrons le résultat intermédiaire suivant : Z Z −
t Sy,k (T (ω))dt ≤ v(y)SR,k (ω) ≤ Sk,y (T −t (ω))dt p.s., 0 < y < R. (1.15) B(R−y) B(R+y)
En effet, en désignant par Fk,R l'ensemble des k-faces de la mosaı̈que interceptant B(R) et par μk,F la mesure de Hausdorff k-dimensionnelle de la face F, F ∈ Fk,R, nous avons Z
Z X Z −t Sy,k (T (ω))dt = 1B(R−y) (t) 1B(y) (s)1F (s + t)dμk,F (s + t)dt B(R−y) = X F ∈Fk,R (ω) ≤ X F ∈Fk,R (ω) Z F ∈Fk,R (ω) 1B(R−y) (t) Z Z Z 1B(y) (u − t)1F (u)dμk,F (u)dt 1B(y) (u − t)dt 1B(R) (u)1F (u)dμk,F (u) ≤ v(y) * SR,k (ω) p.s.,
ce qui
prouve la
partie
droit
e
de l'
en
cadre
ment (
1.15
). Par ailleurs, nous avons également
Z Z Z X −t Sy,k (T (ω))dt = 1B(R+y) (t)1B(y) (u − t)dt 1F (u)dμk,F (u) B(R+y) F ∈Fk,R+2y (ω) ≥ X F ∈Fk,
R (ω) Z Z 1B(y) (u − t)dt 1B(R) (u)1F (u)dμk,F (u)
≥
v(y)
*
SR,k (ω) p.s., ce qui conclut la démonstration du résultat (1.15). Revenons à présent à la preuve du lemme 1.3.5. L'encadrement (1.15) implique presque sûrement que Z Z v(R − y) SR,k (ω) v(R + y) Sy,k (T −t (ω)) Sy,k (T −t (ω)) dt ≤ ≤ dt. v(y)v(R) B(R−y) v(R − y) v(R) v(y)v(R) B(R+y) v(R + y) D'après le théorème ergodique de Wiener, les expressions à gauche et à droite tendent vers (E(Sy,k )/v(y)) p.s Ainsi, on en déduit la convergence presque-sûre de SR,k /v(R). Preuve du lemme 1.3.6. Nous allons montrer la convergence ′ (C)k : NR,k /v(R) → 0 p.s. quand R → +∞, en utilisant un raisonnement par récurrence sur k ∈ [0, d]. ′ Puisque NR,0 = 0 p.s., (C)0 est bien vérifiée. Supposons à présent que la convergence (C)k−1 est satisfaite pour un k fixé, 1 ≤ k ≤ d − 1 et montrons (C)k. Considérons pour ce faire un réel y ∈ (0, R) fixé. Par conséquent, en notant Lk le nombre de tels k-faces, nous avons SR+y,k − SR,k ≥ Ak * Lk, (1.16) De plus, nous obtenons aisément la formule ′ Lk = NR,k − #{
k
-faces ayant une de ses (k − 1)-faces qui intercepte B(R + y) \ B(R)}. (1.17) ′ Par ailleurs, pour tout 0 ≤ l ≤ l ≤ d, une face l-dimensionnelle de Vd est incluse différentes faces l′ -dimensionnelles (voir par exemple [65], Prop. dans exactement d−l+1 l′ −l 2.1.1.)). En particulier, une (k − 1)-face fixée est incluse dans exactement (d − k + 2) k-faces. Ce fait associé à (1.17) a pour conséquence que
′ Lk
≥ NR,k − (d − k + 2)#{(k − 1)-faces interceptant B(R + y) \ B(R)}. (1.18) Il reste à voir que toute (k − 1)-face interceptant B(R + y) \ B(R) peut : soit intercepter la frontière de B(R + y) ; soit intercepter la frontière de B(R) ; soit être incluse dans B(R + y) \ B(R). Dans le dernier cas, nous remarquons que la (k − 1)-face a alors nécessairement une sous 0-face incluse dans B(R + y) \ B(R). Ainsi, nous obtenons que #
{(k − 1)-faces interceptant B(R + y) \ B(R)} ′ ′ ≤ NR+y,k−1 + NR,k−1 + #{(k − 1)-faces incluses dans B(R + y) \ B(R)} d+1 ′ ′ * #{0-faces incluses dans B(R + y) \ B(R)} ≤ NR+y,k−1 + NR,k−1 + k−1 d+1 ′ ′ (SR+y,0 − SR,0 ). ≤ NR+y,k−1 + NR,k−1 + k−1 20
(1.19) En utilisant la convergence (C)k−1 ainsi que le lemme 1.3.5 appliqué à k = 0, nous déduisons que #{(k − 1)-faces interceptant B(R + y) \ B(R)} → 0 p.s. quand R → +∞. v(R) (1.20) En combinant les inégalités (1.16) et (1.18), nous obtenons
′ NR,k 1 SR+y,k − SR,k d − k + 2 ≤ + #{(k − 1)-faces interceptant B(R + y) \ B(R)}. v(R) Ak v(R) v(R)
Compte tenu du lemme 1.3.5 et de (1.20), cette dernière inégalité implique la convergence presque-sûre (C)k. Le lemme 1.3.6 est ainsi démontré. 2 Remarque 1.3.7 Le lemme 1.3.4 impli que en particulier que le reste ε(R, 1, *) dans (1.10) tend vers zéro p.s., c'est-à-dire 1 NR p.s. quand R → +∞. →E v(R) Vd (C0 ) En reprenant mot pour mot la preuve du lemme 4 de [26] dûe à A. Goldman, nous obtenons le corollaire suivant. Coroll
aire
1.3.8 Soit
h : K −→ R une application mesurable telle qu'il existe p > 1 satisfaisant E|h(C)|p < +∞. Alors presque sûrement, X 1 1 h(C ) 0 e = lim h(C) = Eh. E R−→∞ NR E (1/Vd(C0 )) Vd (C0 ) C∈C R
1.4
La mosaı̈que de Johnson-Mehl. 1.4.1 La cellule typique au sens de Palm.
La cellule typique C au sens de Palm de Jd a été introduite par J. Møller par analogie avec le cas Voronoi. Plus précisément, fixons un ensemble borélien borné B ⊂ Rd de mesure de Lebesgue non nulle. Notons Φ l'ensemble des couples (x, t) tels que la cellule associée est non vide. Classiquement, C est définie par l'identité [64] : Eh(C) = 1 E λVd (B) X (x,t)∈Φ;x∈B h(C((x, t)) − x), où h : K −→ R parcourt l'ensemble des fonctions numériques, mesurables et bornées. Considérons par ailleurs un temps aléatoire τ dont la loi a pour densité par rapport à la mesure Λ, p(t)/λ. Alors en utilisant la formule de Slivnyak [64], la cellule C((0, τ )) = {y ∈ Rd ; T(0,τ ) ≤ T (x, t), (x, t) ∈ Φ}, 21 obtenue en rajoutant le couple (0, τ ) au processus ponctuel Φ, coı̈ncide en loi avec la cellule typique C. Par ailleurs, en adaptant mot pour mot le raisonnement de Møller ([65], Prop. 3.3.2.) sur les mosaı̈que de Poisson-Voronoi, on obtient que la cellule C est reliée en loi à la cellule contenant l'origine C0 de la manière suivante : 1 h(C0 ) Eh(C) =, E E(1/Vd(C0 )) Vd (C0 ) pour toute fonction mesurable bornée h : K −→ R invariante par translation.
1.4.2 Convergence des moyennes empiriques. L'ergodicité de Jd s'obtient de manière analogue à celle de Vd. Par ailleurs, définissons ′ de même que dans la preuve de la proposition 1.3.4 les grandeurs NR,k, NR,k et SR,k, 0 ≤ k ≤ d, R ≥ 0. Le raisonnement complet conduisant à la convergence des moyennes empiriques peut alors être repris, à condition que toutes ces variables soient intégrables. On peut facilement vérifier qu'il suffit de se donner l'hypothèse de l'intégrabilité du coefficient ′ +NR binomial NRd+1. La proposition suivante fournit une condition explicite sur la mesure Λ pour que cette hypothèse soit vérifiée.
Proposition 1.4.1 Si la condition
Z +∞ 0 Z 0 t
+
K d (t + K − s) dΛ
(s) d+1
Z
est
vérifié
e
pour
tout
K > 0,
alors
E 0 ′ NR +NR d+1 t (t − s) d−1 dΛ(ds) p(t)dt < +∞ (1.21) < +∞. Preuve. Considérons T0 le premier temps d'atteinte de l'origine par un germe en croissance. La loi de T0 est donnée par l'égalité [64] P{T0 ≥ t} = p(t), (1.22) où p est la fonction définie par (1.3). De plus, on peut montrer que conditionnellement à l'évènement {T0 = t}, t > 0, le processus ponctuel Φ est égal en loi à Φt ∪ {(X, T )} où : (i) Φt est un processus ponctuel de Poisson sur Rd × R+, de mesure d'intensité 1Dtc (x, t)dxΛ(dt), avec Dt = {(x, s) ∈ Rd × R+ ; T(x,s) (0) ≤ t}; (ii) (X, T ) est un point indépendant du processus précédent, de loi uniforme sur la frontière du cône Dt. De plus, si la cellule associée à un germe (x, s) intercepte B(R), alors nécessairement, s + (||x|| − R) ≤ T0 + R. 22 Par conséquent,
NR
+
NR′ E d+1 # Z +∞ " (#{(x, s) ∈ Φ; ||x|| + s ≤ t + 2R}) T0 = t P{T0 ∈ dt} ≤ E d+1 0 Z +∞ (#{(x, s) ∈ Φ; ||x|| + s ≤ t + 2R} + 1) P{T0 ∈ dt}. (1.23) ≤ E d+1 0
Comme la variable #{(x, s) ∈ Φ; ||x|| + s ≤ t + 2R} est de Poisson de paramètre Z Z t+2R at,
R = 1{||x||+s≤t+2R}dxΛ(ds) = ωd (t + 2R − s)d Λ(ds), 0 on a (#{(x, s) ∈ Φ; ||x|| + s ≤ t + 2R} + 1) d = ad+1 E t,R + (d + 1)at,R. d+1 (1.24)
De plus, at,R est croissant en R à t fixé et tend vers +∞ quand R → +∞ (en utilisant la condition (1.1)). pour R suffisamment grand, il suffit d'après le résultat R +∞Ainsi d+1 (1.24) que l'intégrale 0 at,R P{T0 ∈ dt} soit finie pour déduire de l'inégalité (1.23) que ′ +NR E NRd+1 < +∞. En remplaçant la loi de T0 fournie par son expression (1.22), la condition précédente se ramène à d+1 Z t Z +∞ Z t+2R d d−1 (t + 2R − s) dΛ(s) (t − s) dΛ(ds) p(t)dt < +∞, 0 0 0 ce qui est bien vérifié sous l'hyothèse (1.21).
2
1.5 1.5.1 La mosaı̈que poissonienne. Convergence des moyennes empiriques. La convergence presque-sûre des moyennes empiriques en toute dimension est déjà connue (voir [26], [72]). Nous en proposons une autre démonstration qui se base sur les idées développées par R. Cowan dans le cas de la dimension deux [15][16]. La technique que nous allons adopter est analogue à celle employée pour la mosaı̈que de Poisson-Voronoi Vd. Rappelons tout d'abord comment montrer l'ergodicité de la mosaı̈que Pd. On remarque que pour tout a ∈ Rd, xi * a a a xi, i ≥ 1.
a + H(xi ) = H(t (xi )) avec t (xi ) = 1 + ||xi ||2 23
En réalisant Ω comme l'espace Mσ muni de la tribu cylindrique Tc, la correspondance {xi ; i ≥ 1} 7−→ {ta (xi ); i ≥ 1} induit classiquement une transformation T a : Ω −→ Ω préservant la mesure [28]. Lemme 1.5.1 Pour tout a ∈ Rd, les transformations T a sont ergodiques. Preuve. Il suffit de montrer que la mesure est fortement mélangeante, c'est-à-dire que pour tous A, B ∈ B(Rd ), k, l ∈ N, nous avons la convergence, lorsque
n → +∞, P[{#(T −na (Φ) ∩ A) = k} ∩ {#(Φ ∩ B) = l}] = P[{#(Φ ∩ tna (A)) = k} ∩ {#(Φ ∩ B) = l}] → P{#(Φ ∩ A) = k} * P{#(Φ ∩ B) = l}. (1.25) Soit Dα = {x ∈ Rd ; |x * a| ≥ α}, α > 0. Supposons qu'il existe α > 0 tel que B ⊂ Dα. Alors pour n suffisamment grand, na t (A) ∩ B = ∅. Ainsi, comme Φ est un processus poissonien, nous obtenons P[{#(Φ ∩ tna (A)) = k} ∩ {#(Φ ∩ B) = l}] = P{#(Φ ∩ tna (A)) = k} * P{#(Φ ∩ B) = l} = P{#(T −na(Φ) ∩ A) = k} * P{#(Φ ∩ B) = l
}
=
P
{
#(
Φ
∩ A
)
= k}
* P{#(Φ ∩ B) = l}. Dans le cas général, soit ε ∈ (0, 1) et prenons α > 0 tel que l'évènement Eα = {Φ ∩ Dαc ∩ B = ∅} satisfait P (Eα ) ≥ 1 − ε. (1.26) En appliquant le premier cas à B ∩ Dα, nous obtenons alors que pour n suffisamment grand, P[{#(
Φ
∩
tna (
A
)) =
k} ∩ {#(Φ ∩ B) = l} ∩ Eα ] = P[{#(Φ ∩ tna (A)) = k} ∩ {#(Φ ∩ B ∩ Dα ) = l} ∩ Eα ] = P[{#(Φ ∩ tna (A)) = k} ∩ Eα ] * P{#(Φ ∩ B ∩ Dα ) = l}.
(
1.27
) De plus, en utilisant (1.26), nous avons
|P{#(Φ ∩ B ∩ Dα ) = l} − P{#(Φ ∩ B) = l}| ≤ |P{#(Φ ∩ B ∩ Dα ) = l} − P[{#(Φ ∩ B ∩ Dα ) = l} ∩ Eα ]| +|P[{#(Φ ∩ B) = l} ∩ Eα ] − P{#(Φ ∩ B) = l}| ≤ 2ε. (1.28) Par ailleurs, |P[{#(Φ ∩ tna (A)) = k} ∩ Eα ] − P{#(Φ ∩ A) = k}| = |P[{#(Φ ∩ tna (A)) = k} ∩ Eα ] − P{#(Φ ∩ tna (A)) = k}| ≤ ε. (1.29) 24
Par conséquent, pour n suffisamment grand, en combinant (1.27), (1.28) et (1.29), nous obtenons que |P[{
#
(
Φ
∩
tna (
A
)) =
k} ∩ {#(Φ ∩ B) = l}] − P{#(Φ ∩ A) = k} * P{#(Φ ∩ B) = l}| ≤ 4ε
, ce qui prouve la convergence (1.25
). 2
Notons CR (resp. CR′ ) l'ensemble des cellules incluses dans B(R) (resp. interceptant la frontière de B(R)) et NR = #CR (resp. NR′ = #CR′ ). Prouvons l'intégrabilité de (NR +NR′ ). L'ensemble des hyperplans de H(Φ) interceptant B(R) divise presque sûrement l'espace en exactement 2#(Φ∩B(R)) composantes connexes. La démonstration du lemme 1.5.4 est en tout point analogue à celle du lemme 1.3.5. Quant à la preuve du lemme 1.5.5, elle est identique à celle du lemme 1.3.6, à ceci près que deux estimées diffèrent : presque sûrement, on a
#{(k − 1)-
faces
intercept
ant
B(R + y) \ B(R)} ≤ ′ NR+y,k−1 + ′ NR,k−1 +2 k−1 d (SR+y,0 − SR,0 ), k−1 et ′ NR,k 1 SR+y,k − SR,k ≤ v(R) Ak v(R) 2(d − k + 1) #{(k − 1)-faces interceptant B(R + y) \ B(R)}. + v(R)
Remarque 1.5.6 Le lemme 1.5.3 implique en particulier que le reste ε(R, 1, *) dans (1.10) tend vers zéro p.s., c'est-à-dire NR 1 p.s. quand R → +∞. →E v(R) Vd (C0 ) A. Goldman ([26], lemme 4) a prouvé un corollaire important en dimension deux qui se généralise aisément. Corollaire 1.5.7 (Goldman, 1996) Soit h : K −→ R une application mesurable telle qu'il existe p > 1 satisfaisant E(|h(C0
)|
p
/Vd
(C
0 )) < +∞. Alors presque sûrement,
1 h(C0 ) 1 X e h(C) =. E Eh = lim R−→∞ NR E (1/Vd(C0 )) Vd
(
C0
)
C
∈C R
1.5.2 La cellule typique au sens de Palm. L'objet obtenu par convergence des moyennes empiriques, communément appelé cellule empirique, est relativement peu maniable. Remarquons que dans le cas de la mosaı̈que de Poisson-Voronoi Vd, une approche en terme de mesure de Palm a permis à l'aide de la formule de Slivnyak de disposer d'une réalisation explicite de la cellule typique. Aussi, par analogie, nous allons donner une nouvelle construction de cellule typique au sens de Palm pour la mosaı̈que poissonienne Pd qui sera équivalente en loi à la cellule empirique. Pour ce faire, désignons par Ψ le processus ponctuel constitué des centres des disques inscrits dans les cellules de la mosaı̈que. L'invariance de la mosaı̈que Pd par translation 26 implique que Ψ est un processus ponctuel (localement fini) stationnaire. Fixons un borélien B ⊂ Rd vérifiant 0 < Vd (B) < +∞. La cellule typique C, prise au sens de Palm, est définie par la formule : X 2d 1 Eh(C) = E h(C(z) − z), (1.31) ωd ωd−1 d Vd (B) z∈Ψ∩B où h : K −→ R parcourt l'ensemble des fonctions mesurables bornées (la constante ωd ωd−1 d /2d est l'intensité du processus Ψ). En reprenant le raisonnement de J. Møller s'appliquant aux processus ponctuels stationnaires (voir [65], page 66), on obtient dans le cas où h est également invariant par translation, l'égalité h(C0 ) 1.
E Eh(C) = E (1/Vd (C0 )) Vd (C0 )
Avec le théorème 1.5.2, on en déduit que : Théorème 1.5.8 Pour toute fonction h mesurable, invariante par translation et bornée, on a e = Eh(C). Eh L'identité en loi décrite par le théorème précédent (associée à une utilisation du théorème de Slivnyak) aura de multiples conséquences sur nos connaissances des propriétés géométriques de la cellule empirique de la mosaı̈que poissonienne Pd (voir le chapitre 4).
| 12,648
|
01/tel.archives-ouvertes.fr-tel-01899536-document.txt_1
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 9,792
| 15,660
|
Conception et évaluation d'idéotypes variétaux et culturaux en orge d'hiver brassicolepour des conduites culturales à bas niveau d'intrants : approche par expérimentation et modélisation u Composition du Jury :
Alexandra JULLIEN Professeur, AgroParisTech, Paris Maryse BRANCOURT Directrice de Recherche, INRA, Estrées-Mons Paolo BARBERI Professeur d'Agronomie, SSSA, Pise, Italie Pierre CASADEBAIG Chargé de Recherche, INRA, Toulouse Pierre ROUMET Chargé de Recherche INRA, Montpellier Philippe LONNET Directeur sélection céréales Florimond-Desprez, Cappelle Marie-Hélène JEUFFROY - Présidente du jury Rapporteur Rapporteur Examinateur Examinateur Examinateur Directrice de Recherche, INRA, Grignon - Directeur de thèse Avant
Propos
Nous tenons à remercier les partenaires et eurs qui ont permis la réalisation de ce travail : Ce travail a été réalisé dans le cadre d'une convention CIFRE (Conventions Industrielles de Formation par la Recherche) entre Florimond-Desprez et l'INRA. Les travaux de recherche ont également obtenu un financement du Ministère de l'Agriculture et de la Forêt, dans le cadre du projet CasDar ECO2MALT : « Optimisation de l'évaluation et amélioration de la qualité brassicole de l'orge d'hiver pour la sélection de variétés adaptées aux systèmes de cultures à bas niveaux d'intrant ». - - Remerciements
Ce travail de thèse est le fruit d'un travail collectif où de nombreuses personnes ont été impliquées. J'adresse en premier lieu, d'immenses remerciements à Marie-Hélène. Tu as été un guide formidable ces 4 dernières années. Tu as eu confiance en moi et ma offert l'opportunité de travailler et d'apprendre à tes cotés. Une qualité d'encadrement que j'ai beaucoup apprécié : ton enthousiasme et ta motivation sans faille m'a poussé à donner le meilleur de moi-même. Tu as toujours su trouver des solutions aux difficultés que je rencontrais, et me pousser à aller de l'avant. Tes conseils et relectures nombreuses ont grandement participé à améliorer ce document. Un grand merci à Arnaud. Tu es impressionnant de pertinence et d'esprit critique, à tel point que je redoutais tes retours de commentaires sur les articles en cours! J'ai énormément appris à tes cotés, et j'aurais encore beaucoup plus à apprendre. Enfin, merci à Ronan qui a eu un rôle prépondérant dans ce travail de thèse : ta disponibilité, ta patience et tes conseils avisés m'ont beaucoup aidé dans la partie modélisation. Merci aux membres du comité de pilotage de thèse pour m'avoir guidé dans les premiers pas de ce travail : Jacques le Gouis, Olivier Robert, Phillipe Debaeke, Patrick Boivin et Eric Gozé. Une pensée particulière pour Olivier Robert. J'ai eu la chance de faire partie d'un projet Casdar où les différents partenaires étaient particulièrement enthousiastes pour travailler ensemble. J'ai beaucoup apprécié l'ambiance et les sessions de travail organisées (et les repas de travail accordés à la thématique du projet!). Cette réussite doit beaucoup à Claire Perrot, qui malgré son emploi du temps chargé a géré de manière remarquable les réunions annuelles. Merci à Jean-François Herbomez, Claire Perrot, Marie-Hélène, Sophie Schwebel, Marc Schmitt et Patrick Boivin. Je remercie les membres du jury qui ont accepté d'évaluer ce travail : Maryse Brancourt, Paolo Barberi, Pierre Casadebaig, Pierre Roumet, Alexandra Julien et Philippe Lonnet. Les deux premières années de thèse ont été occupées par la partie expérimentale. Cette dernière a fait intervenir de nombreux acteurs. Pour la partie expérimentation au champ, prélèvements et suivi des cultures je voudrais remercier les équipes techniques de Florimond-Desprez et de KWS Momont. Un merci particulier à Jean-Francois Herbommez, Claire Perrot, Patrick Vandenbavière, Vincent Thibaut et Christian Antraygues. Pour la partie dépouillement des échantillons (merci aux quelques 200 000 plantes qui ont été sacrifiées pour les besoins de la science), un grand et sincère merci à toute l'équipe technique de l'UMR agronomie. Un merci particulier à Damien Marchand pour son aide précieuse, ses - encouragements et ses conseils sur toute la partie expérimentale. J'ai beaucoup apprécié travailler à tes côtés. Merci à Gilles pour tes conseils avisés. Un merci particulier à Jean-Marc Teulé qui a beaucoup participé à la démarche de qualité (et m'a fait gagner beaucoup de temps) de la partie expérimentale en développant des outils informatiques de suivi d'échantillons. Malgré toute cette aide, je ne m'en serais jamais sorti sans l'aide des CDD et stagiaires : Chloé Colas pour l'été 2014, Pierre-Mael Lhotte et Margot Leclère pour l'été 2015 et Pierre-Mael (encore lui!) pour l'été 2016. Vous m'avez impressionné par la quantité de travail que vous avez effectué! Pour la partie modélisation, je remercie à nouveau Ronan Trépos. Tu as vraiment eu une large contribution à cette partie (merci pour les dizaines de milliers de simulations effectuées, et reeffectuées et re-effectuées parce que trouver le bon plan de simulation dès le premier coup, ce n'est pas simple). Merci également à Bernard Nicolardot pour le partage de son expérience lors de l'intégration d'un nouveau module de minéralisation à Azodyn. Enfin, merci Maud Bénézit (l'Azoteam), pour les heures passées à décortiquer le modèle ou voyager dans les soutes à bagages. Pour vos relectures ou conseils ou échanges tout simplement sur la thèse, merci à David Makoswki, Tamara Ben-Ari et Corentin Barbu. Merci également à Cé
line, Margot, Maude et Amandine pour l'aide pour la finalisation du manuscrit. Un merci tout particulier pour Margot et Florence pour votre aide précieuse qui m'a permis de faire avancer la réflexion de thèse. Un très grand merci aux précaires de l'unité, qui ont animé le quotidien du laboratoire. Merci à Cynthia, J-B, Joel, Margot, Amandine, Charles, Céline, Maud, Maude, Valentin, Mathilde pour les parties de Tarot, les récoltes de tilleul/méligèthes, les soirées précaires, les discussions et tout le reste. Vous avez largement contribué à rendre ces trois années (voire un peu plus) passées au laboratoire agréables! Un merci particulier à Charles et Mathidle avec qui il a été agréable de partager le bureau. Merci également aux sportifs de l'UCPA : Matthieu, Gilles et Tim pour le ski, la mer, le parapente (conseil aux novice : faites attention aux voitures), tous les autres sports et les futures randos. Vous avez représenté des bouffées d'oxygène au long de ces deux dernières années! Merci aussi aux copains de l'ESA et autres, de métropole et d'au delà pour plein de choses! Enfin, pas des moindres, un grand merci à ma famille, mes parents, Laure et Céline pour m'avoir toujours encouragé, pour être là et pour tout le reste.
Introduction 1 I. Etat de l'art 17 1. Contexte de la production d'orge brassicole 17 2. Variabilité des performances en fonction des sites et des années 23 3. Concevoir des itinéraires techniques adaptés au BNI 27 4. Quelle démarche utiliser pour concevoir des itinéraires techniques à bas niveau d'intrants? 40
II. Démarche et questions de recherche 47
1. Définition des objectifs, contraintes et cahier des charges de la production d'orge brassicole. 48 2. Evaluation de la diversité des performances agronomiques des génotypes actuels, cultivés dans des conduites économes en intrants 48 3. Identification des caractéristiques variétales adaptées aux conduites économes en intrants 49 4. Développement d'un modèle pour simuler l'impact des caractéristiques variétales et de la conduite azotée dans une large gamme d'environnements 50 5. Structuration des environnements de production de l'orge en fonction des facteurs climatiques impactant la production 51 6. Identification des caractéristiques des conduites azotées économes dans la diversité des environnements de production 52 7. Identifier les combinaisons de caractéristiques variétales et des conduites azotées économes les plus favorables à une production d'orge d'hiver 6 rangs brassicole dans la diversité des environnements de production 53 8. Discussion générale 54
III. Matériel et méthodes 54
1. Un réseau d'expérimentation multi-local 55 2. Base de données des rendements moyens départementaux des orges d'hiver entre 1989 et 2013 58 3. Base de données sur les principales variables climatiques (moyennes départementales) entre 1989 et 2013 58 4. Base de données sur les principales caractéristiques des sols (moyenne départementale) entre 1989 et 2013 59 5. Modèle de culture utilisé 59
IV. Chapitre 1. Evaluation de la production d'orge dans des conduites économes en intrants 61 1. Introduction 55 2. Material and methods 58 3. Results 61 3. Discussion 68 Conclusion 72 V. Chapitre 2. Caractéristiques variétales adaptées au stress azoté 76 1. Introduction 81 2. Material and methods 83 3. Results 89 4. Discussion 95 VI. Chapitre 3. Modèle de
culture en orge brassicole 108 1. Introduction 115 2. Material and methods 117 3. Results 125 4. Discussion 135 Conclusion 138
VII. Chapitre 4. Caractérisation des environnements de production 145
1. Introduction 149 - 2. Material and methods 151 3. Results 153 4. Discussion 159 Conclusion 163
VIII. Chapitre 5. Stratégies de fertilisation azotée pour l'orge brassicole 171
1. Introduction 174 2. Material and methods 177 3. Results 180 4. Discussion 186
Conclusion
190
IX. Chapitre 6. Caractéristiques variétales adaptées au bas niveau d'azote 195 1. Introduction 201 2. Material and methods 203 3. Results 206 4. Discussion 214 5. Conclusion 221 X. Chapitre 7. Discussion Générale 227 1. Quelles caractéristiques des itinéraires techniques avec intrants réduits en orge brassicole? 229 2. Perspectives et futures recherches pour le développement des itinéraires avec recours réduits aux intrants 243 3. Démarche mobilisée pour la conception d'idéotypes 247 4. Suite de la démarche d'idéotypage en orge brassicole 261 XI. Conclusion générale 264 XII. Références bilbiographiques 265 XIII. List of
Figures
283
XIV
. List
of
Tables
285
XV. List of Publications 287 - Liste des acronymes
CIMMYT : International maize and wheat improvement center /Centre international d'amélioration du maïs et du blé FAO : Food agricultural organization / Organisation des nations unies pour l'agriculture et l'alimentation HI : High-input IGE : Interaction Génotype X Environnement IGC : Interaction Génotype X Conduite culturale IGEC : Interaction Génotype X Environnement X Conduite culturale IFT : Indice de fréquence de traitement INN/NNI : Indice de nutrition azotée (sans unité)/ nitrogen nutrition index (unitless) INRA : Institut National de la Recherche Agronomique IRRI : Institut international de recherche sur le riz LNP : Low-Nitrogen and Pesticides (conduit culturale avec réduction de la fertilization N et des pesticides) N : Azote/Nitrogen PLS : Partial Least Square regression/ régression des moindres carrés partiels TP/GPC : teneur en protéines/grain protein content TPE : Target Population Environnement NO3 : ion nitrate NH3 : ammoniac SAU : Surface Agricole Utile SSP : Service de la Statistique et Prospective du ministère de l'agriculture -
-
Introduction
-
Etat de l'art
INTRODUCTION
L'orge (Hordeum vulgare L .) est l'une des plus anciennes plantes domestiquées (Nevo & Shewry, 1992), et aujourd'hui la quatrième céréale la plus cultivée au monde après le maïs, le riz et le blé (Newton et al., 2011). Son aire de culture s'étend des climats subarctiques à subtropicaux (Gupta et al., 2010- Figure 1). Emblavée sur près de 50 millions d'hectares à l'échelle mondiale (moyenne 2010- 2014 - FAO, 2017), environ deux tiers de la production d'orge est utilisée pour l'alimentation animale, un tiers pour la production de malt et 2% directement pour l'alimentation humaine (Baik and Ullrich, 2008). 11 Introduction - Etat de l
'
art
Figure 1. Production totale (X 10^3 tonnes) d'orge (Hordeum vulgare L.) par pays en 2014 (FAO, 2017) Figure 2. Surface totale (x103 ha) d'orge brassicole (Hordeum vulgare L.) emblavée pour les principales zone de production (couleur) et répartition des surfaces entre orge d'hiver et orge de printemps (en pourcentage). (Données issues de Agreste, 2013)
12 Introduction - Etat de l'art
Actuellement, l'orge française est produite avec une utilisation importante d'intrants. En 2011, l'enquête « Pratiques Culturales » du Ministère de l'Agriculture révèle que, sur l'ensemble de la sole d'orge (hiver et printemps confondus), 132 kg ha-1 d'engrais azoté de synthèse sont utilisés en moyenne pour les surfaces sans apport organique, et 109 kg ha-1 sur les surfaces avec apport organique (Agreste, 2014). Au total, plus de 200 000 tonnes d'engrais azotés de synthèse sont utilisées pour la sole d'orge française. En France, toutes espèces confondues, les activités agricoles génèrent en moyenne 32 kg de surplus d'azote par hectare de surface agricole (SAU) et par an, soit environ le quart de la fertilisation azotée moyenne apportée (Commisariat général au développement durable, 2013). De plus, l'indice de fréquence de traitement (IFT) moyen en France sur orge, tous produits phytosanitaires confondus, est de 3.1 et dépasse 3.6 dans certaines régions de grandes cultures (Agreste, 2013). La céréaliculture française n'a pas beaucoup évolué vers une agriculture plus durable et reste encore très dépendante d'une utilisation importante d'intrants de synthèse (Aubertot et al. 2005). Comme les autres grandes cultures conduites de manière intensive, la production d'orge de brasserie contribue aux impacts environnement négatifs des filières de production et de l'agriculture française. A partir d'une analyse de cycle de vie, différentes études ont montré que la production d'orge brassicole représente près de 40 % des impacts environnementaux de la filière « orge-malt-bière » (Virtanen et al. (2007) en Finlande, Hospido et al., (2005) en Espagne; Williams et al., (2014) au Royaume-Uni). Plus particulièrement, la fertilisation azotée de synthèse consomme en moyenne, à elle seule, près d'un tiers de l'énergie nécessaire à la production d'orge brassicole (Khan et al., 2010 ; Sahabi et al., 2013). Vela et al. (2007) ont également montré que les pesticides utilisés sur orge brassicole peuvent persister lors des étapes de fabrication de la bière et présenter des risques pour la santé humaine. Introduction - Etat de l'art
Figure 3. Pourcentage de la sole d'orge cultivée avec des variétés d'hiver (orange) et de printemps (gris). Le détail de la répartition entre les orges d'hiver 2 rangs et 6 rangs n'est pas présenté. Les données ont été fournies par le GEVES. Figure 4. Inflorescence d'orge 2-rangs (a) et d'orge 6-rangs (b). L'encart présente le détail d'un épillet. Les images 14 Introduction - Etat de l'art
Outre ces cadres réglementaires, des études sociologiques portant sur les choix des consommateurs pour la consommation de bières artisanales démontrent que ces derniers accordent une grande importance à la façon dont est produite la matière première (Aquilani et al., 2015) et aux risques pour la santé (Sohrabvandi et al., 2012). Désormais, la filière orge-malt-bière s'oriente délibérément vers une production moins consommatrice des intrants de synthèse. Les industriels de la filière brassicole s'engagent en effet de plus en plus vers une amélioration de leur procédés pour accroitre la durabilité de leur production d'orge de brasserie : le livre blanc de la brasserie, par exemple, formule explicitement des objectifs de durabilité de la production agricole (Brasseurs de France, 2014). Cependant, leurs efforts se concentrent majoritairement sur les étapes de maltage et de brassage du malt, et peu d'avancées concrètes sont perceptibles au niveau de la production agricole en Europe1. Depuis plusieurs décennies, cependant, des méthodes de production réduisant l'impact des activités agricoles sur l'environnement et la santé humaine émergent (Tilman and Clark, 2015). Par exemple, en France, dans la lignée des travaux sur la production intégrée en blé tendre (Meynard, 1985), des études ont mis au point des conduites culturales qui visent à réduire l'usage des intrants de synthèse tout en maintenant des performances quantitatives et qualitatives acceptables. Des démonstrations expérimentales (Loyce et al. 2002, 2008) ont prouvé que la dose totale d'azote et les quantités de pesticides utilisés peuvent être significativement réduites en blé avec ces itinéraires techniques, comparés aux itinéraires conventionnels. Ces résultats ont également été démontrés sur d'autres espèces comme le blé dur (Debaeke et al., ) ou le tournesol (Debaeke et Nolot, 2000), en France et à l'international (Hossard et al., 2016). Pour minimiser les pertes de production et maintenir une rentabilité économique satisfaisante pour une gamme de prix assez large, les caractéristiques variétales (tolérance aux maladies, aux stress azotés) doivent être adaptées à l'itinéraire technique (réduction engrais, pesticides) et aux usages visés (blé biscuitier, blé améliorant, blé fourrager) (par ex : Loyce et al., 2012, 2008 ; Meynard, 1985 ; Vereijken, 1989). La complémentarité entre les caractéristiques variétales et les modalités de l'itinéraire technique sont indispensables pour permettre le développement de ce type de production (Loyce et al., 2012). Les performances variétales sont, cependant, très largement dépendantes des conditions pédoclimatiques dans lesquelles elles sont cultivées. La France est un producteur important d'orge brassicole et de malt dans le monde. La production actuelle d'orge brassicole est encore très dépendante des intrants de synthèse et entraine comme d'autres grandes cultures des impacts négatifs sur l'environnement et la santé des consommateurs. Les industriels, la société civile et les politiques encouragent désormais une production plus respectueuse de l'environnement. Peu de connaissances existent actuellement pour produire de l'orge brassicole avec moins d'intrants de synthèse tout en maintenant la production quantitative et en respectant les cahiers des charges pour la qualité des grains imposés par la filière. L'objectif global de ce travail est de concevoir et d'évaluer les caractéristiques variétales et de l'itinéraire technique favorables à la production d'orge d'hiver 6 rangs brassicole pour des conduites culturales économes en intrants. Requête sur web-of-knowledge incluant les termes « low-input », « yield » et « wheat » ou « barley ». https://apps.webofknowledge.com ETAT DE L'ART 1. Contexte de la production d'orge brassicole
1.1. Des critères de qualité spécifiques à la filière brassicole En plus des rendements élevés recherchés par les agriculteurs, d'autres critères découlant directement des procédés de transformation de l'orge en malt3 puis en brassin sont fixés par la filière. Le nonrespect de ces spécifications entraîne pour l'agriculteur, un déclassement partiel ou total de la production en orge fourragère, destinée à l'alimentation animale. Les paragraphes ci-dessous présentent les principales étapes de transformation de l'orge en bière et les caractéristiques des grains attendues pour optimiser les procédés de transformation. Les grains sont soumis à une étape de maltage, puis de brassage pour que l'orge puisse aboutir à une production de malt puis de bière. La germination en conditions contrôlées des grains pour rendre « accessibles » les réserves amylacées de ces derniers est appelée maltage. L'étape de fabrication de la bière en mélangeant à chaud du malt et de l'eau est appelée brassage. Lors du maltage, les grains subissent une phase de trempe, de germination puis de touraillage (Figure 5a). La trempe permet de laver les grains, de les hydrater (l'humidité initiale des grains de 15% s'accroit à 45%) et d'initier la germination. La germination permet la libération d'hormones (notamment des gibbérellines) par l'embryon et ainsi la production de différentes enzymes nécessaires à l'hydrolyse de l'amidon, des protéines et des parois cellulaires pour fournir les nutriments nécessaires au développement de ce dernier. Le malteur a pour objectif de peu dégrader les réserves amylacées, mais de fortement dégrader la matrice protéique qui entoure les granules d'amidon (Figure 6). Le toura permet l'arrêt de la germination et le séchage des grains (humidité des grains est alors de l'ordre de 5%) pour permettre leur conservation. C'est également à cette étape que sont en partie définies les caractéristiques de couleur et d'arômes des malts. Une fois le maltage terminé, les radicelles, qui donnent une saveur amère à la bière, sont éliminées. Les grains ainsi obtenus forment le malt tel qu'il est stocké pour son utilisation en brasserie. Pour optimiser les procédés industriels, la germination des grains doit être rapide et homogène. L'imbibition et la diffusion de l'eau dans le grain sont largement dépendantes de la teneur en protéines de ce dernier. Un excès de protéines ralentit et limite la prise d'eau (Molina-Cano et al. a. Maltage Orge 1.Stockage 2. Trempe 3. Touraillage 4. D égermage b. Brassage Malt 1.Concassage 2.M acération 3.F iltration 5.F ermentation 7.M ise en bouteille 4.E bulition 6.G arde
Figure 5. Représentation schématique des étapes de maltage (a.) et de brassage (b.) 4
L'extrait de malt est une bouillie formée de farine maltée mélangée avec de l'eau et ayant subi un processus d'hydrolyse enzymatique. Le rendement « d'extraction » est le rapport entre le sucre solubilisé dans le moût et la quantité totale de sucre potentielle issue de l'amidon. Introduction - Etat de l'art
Le brassage comprend 7 principales étapes : la mouture du malt, la macération/brassage, la filtration de la maïsche, l'ébullition du moût, la fermentation, la maturation et la filtration (Figure 5b). La première étape consiste à concasser l'endosperme des grains (malt et/ou grains crus) pour faciliter la dissolution des sucres, ce qui favorisera l'action des enzymes et des valeurs élevées d'extrait dans les étapes suivantes. Durant la phase de macération/brassage, les enzymes produites lors de la germination vont être re-activées pour permettre la fabrication du moût, riche en sucres et en matières azotées assimilables par les levures. La filtration permet de débarrasser le jus, riche en sucres et matières azotées, des écorces (glumelles) et des parties d'amande des grains non solubilisées. Les brasseurs cherchent donc à préserver les enveloppes jusqu'à cette étape pour former une couche filtrante. Après cette filtration, le moût est porté à ébullition et du houblon y est ajouté. Le moût refroidi est ensemencé par la levure (du genre Saccharomyces). Cette dernière va permettre de transformer les sucres simples, obtenus lors du brassage, en alcool et gaz carbonique. Après la fermentation, la garde permet d'obtenir les propriétés organoleptiques finales de la bière grâce à une maturation des composés. La bière est finalement filtrée avant d'être conditionnée. Le paramètre essentiel pour les brasseurs, lors de l'achat de lots de malt, est l'extrait soluble, c'est-àdire la quantité de matière soluble extractible du malt (Bamforth et al., 1993 ; Fox et al., 2008 ; Friedt et al., 2000). Ce critère est particulièrement important la production d'orges européennes, où la bière est exclusivement ou principalement produite à partir de malt (avec peu ou sans ajout d'amidon issu d'autres céréales non maltées). Avec des grains à forte teneur en protéines, l'accessibilité et la désagrégation de l'amidon par les enzymes sont réduites, le malt risque d'être sous-désagrégé (car mauvaise friabilité de ce dernier lors de l'étape de concassage), la mouture reste grossière et le rendement en salle à brasser diminue (le taux d'extraction est réduit - Schmitt, 2014). L'excès de protéines dans le grain entraine également une étape de filtration plus lente (et donc une perte de productivité et de rendement des brasseurs), et des risques de trouble dans la bière. Granule d'amidon (petit) protéique Granule d'amidon (gros) protéique Matrice protéique
Figure 6. Coupe d'endosperme d'orge (microcopie électronique). Photographie issue de John L Black- http://www.regional.org.au/au/abts/2001/m3/black.htm
1.2. Une création variétale historiquement basée sur des itinéraires intensifs en intrants
Depuis le milieu des années 1970, la production française de céréales s'est largement intensifiée grâce à la disponibilité des intrants de synthèse (Meynard et Savini, 2003) et une sélection variétale orientée pour ce type de systèmes (Bonneuil et Hochereau, 2008). En effet, comme dans la plupart des pays industrialisés, les génotypes sont sélectionnés et évalués majoritairement dans des conduites à haut niveau d'intrants (Ceccarelli, 1994; Dawson et al., 2008; Desclaux, 2006; Wortman et al., 2013). En parallèle, les agronomes ont principalement travaillé pour améliorer des itinéraires techniques pour les variétés « élites » développées par les sélectionneurs (Hammer et al., 2014). Ainsi, sélection des plantes et agronomie ont historiquement évolué pour contribuer ensemble à l'amélioration des performances des cultures dans des systèmes de production intensifs en intrants (Fischer, 2010).
5 A pour objet l'harmonisation des règles commerciales en vigueur dans les professions se rattachant au commerce des céréales
Introduction - Etat de l'art
Depuis quelques décennies, des études menées dans différentes régions du monde mettent en évidence de fortes améliorations de la qualité du malt (Passarella et al., 2003; Psota et al., 2009; Zhang et Li, 2009) et augmentations des rendements de l'orge brassicole (Friedt et al., 2000; Madre, 2004). En France, Drillaud-Marteau (2014) estime l' de rendement à 0.41 q ha-1 par an pour l'orge d'hiver 6 rangs brassicole, entre 1987 et 2014. Le progrès génétique serait responsable d'environ un tiers à la moitié des augmentations de rendement en orge d'hiver (environ 30% liés à la génétique pour Abeledo et al., 2003 en Argentine pour des variétés mises sur le marché entre 1959 et 2003; environ 50% liés à la génétique pour Ahlemeyer et Friedt, 2011 en Allemagne pour des génotypes mis sur le marche entre 1966 et 2007; environ 40% pour Laidig et al., 2014 en Allemagne de 1980 à 2012, mais pour des génotypes 2 rangs d'hiver). La part des améliorations de rendement, liées au progrès génétique, varie assez fortement suivant les périodes considérées. Par exemple, Lillemo et al. (2010) estiment ce dernier à 29, 43 et 78 % du total des gains de rendement pour les périodes 1946 à 1960, 1960 à 1980 et 1980 à 2008 respectivement pour de l'orge 2 rangs de printemps en Norvège. La seconde partie des augmentations de rendement constatées en production conventionnelle est liée à l'amélioration des conduites culturales et à l'interaction entre conduite culturale et génotype (Cassman, 1999 ; Ceccarelli, 1996 ; Gallais, 2011). En particulier, la meilleure gestion de la fertilisation azotée (Austin, 1999 ; Bell et al., 1995) et l'utilisation de produits phytosanitaires, notamment les fongicides (Oerke., 2000), ont contribué à cette augmentation. Par exemple, actuellement, les quantités d'azote minéral apportées sur l'orge en France s'élèvent à 132 kg ha-1 (pour les surfaces sans apport organique-Agreste, 2014). Cependant, depuis les années 2000, la consommation totale des engrais d'azote de synthèse a tendance à légèrement baisser en France (Eurostat, 2017).
1.3. Production d'orge brassicole en France : évaluation des rendements, de la qualité et impacts environnementaux
Les rendements de l'orge d'hiver en France atteignaient 6.0, 6.9, 6.5 et 6.8 t ha -1 respectivement pour les années 2011, 2012, 2013 et 2014 (Agreste, 2014). De plus, la qualité de la production d'orge française est reconnu internationalement car basée sur un système d'évaluation des variétés strict. En France, seule une partie des variétés inscrites au catalogue officiel sont recommandées pour la production à destination brassicole. Une liste restreinte de « variétés préférées des malteurs et des brasseurs » correspondant parfaitement aux besoins de la filière est mis-à-jour chaque année. En effet, une fois une variété inscrite au catalogue officiel, le Comité « Bière Malt Orge » sélectionne 5-6 lignées pour effectuer une évaluation technologique avec des productions pilotes de malt (en conditions semi-industrielles). Généralement 3 à 5 variétés sont acceptées chaque année par le CBMO et entrent dans une phase d'évaluation commerciale de deux années, qui comprend des productions de malt et brassage industriels. Seules les variétés qui correspondent parfaitement aux critères des industriels seront recensées dans la liste des « variétés préférées » des malteurs et brasseurs de France. de l' Par exemple, en 2016, 5 variétés d'orge d'hiver 6 rangs ont été inscrites à la liste des variétés préférées des malteurs de France et des brasseurs de France (cv. Casino, Etincel, Isocel, Passerel et Esterel). Cependant, cet indicateur ne révèle pas directement des potentiels impacts environnementaux : des estimations de perte d'azote par lixiviations sont généralement réalisées à partir des reliquats d'azote. Machet et al., (1997) mesuraient des pertes d'azote de 46, 72 et 36 kg ha-1 pour les trois cultures. Un autre indicateur de gestion de l'azote est la balance azotée, utilisée notamment par Eurostat (Eurostat, 2016). Cet indicateur est calculée comme la différence entre l'ensemble des entrées d'azote (fertilisation et amendements,) et des sorties (exportation par la culture, ). Cet indicateur, par contre, ne renseigne pas sur l'efficience d'utilisation des engrais minéraux apportés à la culture. Celle-ci peut être caractérisée via l'efficience d'utilisation de l'azote (N use efficiency), calculée comme le ratio entre la quantité d'azote absorbée par la culture et la quantité totale d'azote appliquée. Certains auteurs se basent sur cet indicateur pour évaluer des stratégies de fertilisation azotées (Ravier, 2017). Dans une étude comparant le blé et l'orge, Delogu et al., (1998) concluaient que cette dernière nécessite moins d'azote pour maximiser le rendement, permettant à cette culture d'atteindre de bonnes performances en conditions d'intrants réduits. Les stratégies de fertilisation azotée sont différentes en blé et en orge : des apports précoces sont recommandés en orge pour éviter de dépasser une teneur en protéines de 11.5%. Des apports précoces sont, cependant, généralement associés à de fortes pertes d'azote environnementales (Limaux et al., 1999). Peu d'études récentes quantifient précisément les pertes d'azote associées à la production d'orge brassicole.
Table 1. Calibrages
grains > 2.5mm) et teneur en protéines (%) moyens des principales variétés d'orge d'hiver 6 rangs cultivées en France. Données issues de malteur de France, 2014, 2015, 2016. Variété Azurel Casino Etincel Esterel Isocel Passerel Calibrage >2.5 mm (%) 2014 2015 2016 90.2 91.0 89.2 55.50 90.7 90.3 64.20 83.1 91.0 90.4 63.42 88.3 89.1 36.20 Teneur en protéines (% 2014 2015 2016 10.4 NA 10.4 9.8 11.70 10.1 9.9 11.45 10.1 10.1 9.9 11.78 9.9 9.4 11.90 22
Introduction - Etat de l'art 2. Variabilité des performances en fonction des sites et des années
2.1. Les performances variétales sont variables suivant les conditions pédoclimatiques D'une manière générale, les productions agricoles sont largement influencées par les conditions pédoclimatiques dans lesquelles elles sont insérées, entraînant de larges variations des performances de production entre années, entre sites pour une année donnée, et entre sites et années (Chenu et al., 2013a; Ray et al., 2015). Par exemple, la moyenne de la teneur en protéines ou du calibrage pour les variétés préférées des malteurs de France et des Brasseur de France montre de large variation suivant les années (Table 1, Le Bail et Meynard, 2003). Dans le cas de l'orge brassicole française, le bassin de production s'étend sur plus de 30 départements du nord de la France et recouvre des conditions pédoclimatiques diverses (GIS Sol, 2017) : les types de sols varient et couvrent des sols d'altération peu différenciés (ex : Brunisols), des sols des roches calcaires (ex : Calcosols) ou des sols de formations limoneuses (ex : Luvisols). Parallèlement, le climat varie du type océanique, océanique altéré à semi-continental (MeteoFrance, 2017). Les variations inter-sites et interannuelles doivent donc être prises en compte par les sélectionneurs et les agriculteurs pour garantir une stabilité de la production (Cooper et Byth, 1996). Le choix variétal est un levier important pour faire face à ces variations de conditions environnementales au de la zone de production et maintenir une production quantitative et qualitative élevée (Murphy et al., 2007). Sur blé, il a par exemple été montré que l'utilisation de variétés tolérantes aux stress biotiques et abiotiques permet de fortement réduire les dommages causés, par exemple, par des pressions maladies ou des stress azotés (Lammerts van Bueren et al., 2011; Loyce et al., 2008). Certains génotypes 6 sont donc plus performants que d'autres, pour un type d'environnement donné. Des inversions de classement, des diminutions ou des augmentations des écarts entre génotypes peuvent en effet se produire suivant les environnements de culture (Figure 7). Introduction - Etat de l'art l'environnent j et la réponse particulière du génotype j à ce même environnement), εijk les résidus supposés indépendants, identiquement distribués et suivant une loi normale N(0, σ 2 ).
2.2. Prise en compte des interactions génotype X environnement pour sélectionner et choisir les variétés
Afin de répondre aux exigences de la filière, la qualité de la production (teneur en protéines et taille des grains) est plutôt évaluée avec une notion de stabilité dans l'absolu (et non une stabilité relative, en comparaison avec d'autres génotypes). Par exemple, les malteurs et les brasseurs veulent, le plus régulièrement possible, avoir des lots de grains avec une teneur en protéines située dans l'intervalle 9.5%-11.5%. Cette notion de stabilité est appelée stabilité statique par Becker et Léon (1988), ou stabilité de type I selon Lin et al. (1986). Au contraire, pour le rendement, les agriculteurs vont chercher des variétés fortement productives dans une diversité de conditions climatiques, pour une localisation géographique donnée. En effet, la production de l'agriculteur étant payée au volume livré, celui-ci augmentera (et stabilisera) son chiffre d'affaire avec une production élevée (et stable) suivant les années. Les sélectionneurs développent généralement des génotypes caractérisés par une adaptation à une large gamme de pédoclimats (Braun et al., 1996), afin de commercialiser des génotypes présentant le meilleur rendement moyen pour une diversité d'environnements. Produire des variétés qui pourront être cultivées sur de larges surfaces permet en effet d'amortir plus efficacement le coût de développement des variétés. De plus, pour être inscrite au catalogue officiel, un génotype doit présenter un rendement moyen supérieur à celui des témoins dans un réseau d' valuation variétal (CTPS, 2010). Les obtenteurs privilégient donc les variétés généralistes à la fois performantes (Gi élevé) et peu interactives (GEij faible). Par exemple, dans la Figure 7, parmi les variétés 3 (bleu) et 4 (rouge) avec un fort rendement moyen, la variété 3 est moins interactive que la variété 4, qui présente de fortes chutes de rendement sur certains environnements (et en particulier 1-LM-nt). L'évaluation des performances des génotypes, relativement aux autres génotypes, est appelée stabilité dynamique par Becker et Léon (1988). Avec ce mode de sélection, les variétés retenues sont celles qui présentent une adaptation large aux conditions pédoclimatiques. Rares sont les sélectionneurs qui analysent les IGE dans le but précis d'identifier des génotypes adaptés à certains milieux spécifiques. Figure 7. Exemple de rendements observés sur 9 génotypes et 27 environnements (Gauffreteau et al. 2014).
2.3. La caractérisation des environnements cibles permet d'adapter la sélection et le choix des génotypes aux contraintes du milieu L'ensemble des sites et des années dans lesquels les variétés sont cultivées et qui vont focaliser l'attention des sélectionneurs est appelé « Environnements cibles » (ou Target Population of Environnements -TPE- Comstock, 1977). Différents auteurs ont montré que la caractérisation des TPE 25 Introduction - Etat de l'art permet d'améliorer l'efficacité de sélection et de faciliter le choix variétal, aussi bien pour une adaptation large des génotypes aux TPE ou une adaptation pour certains sous-ensembles particuliers de TPE (Chenu et al., 2013; Hammer et al., 2014). Dans le cas de la recherche d'une adaptation large des génotypes aux TPE, la caractérisation précise des stress environnementaux permet de pondérer les performances des génotypes en fonction de la représentativité des sites ou de l'année expérimentale aux TPE (Chenu et al., 2011). Ces auteurs stipulent, en effet, que les réseaux d'évaluation variétale, généralement menés sur deux campagnes différentes, peuvent n'être que faiblement représentatifs de la diversité des combinaisons de facteurs limitants dans les TPE. La caractérisation des TPE permet également d'augmenter le progrès génétique dans certains environnements particuliers (Bänziger et al., 2006; Campos et al., 2004; Cooper et al., 1995). En effet, une caractérisation précise du type de stress caractérisant l'environnement permet de plus facilement associer les génotypes (ou caractéristiques génotypiques) ayant de bonnes performances agronomiques dans certains types d'environnements particuliers (caractérisés par certains types de stress). La caractérisation précise des environnement cibles peut également aider les sélectionneurs à définir l'emplacement des sites expérimentaux de leur réseau d'évaluation variétale et se focaliser sur les types d'environnements d'intérêt (Chenu et al., 2011). Finalement, une caractérisation précise des principaux types de stress et de leur fréquence au sein des TPE permet aussi de faciliter le choix des agriculteurs pour l'adaptation des génotypes aux conditions pédoclimatiques de leurs parcelles (Casadebaig et al., 2016). La caractérisation des TPE consiste généralement en l'identification de groupes d'environnements relativement homogènes (dont le nom varie suivant les auteurs : « mega-environnements », « macroenvironnements », « environnement types »), dans lesquels les génotypes atteignent des performances comparables. Les groupes d'environnements sont la plupart du temps structurés sur une base géographique. Par exemple, les travaux du centre international d'Amélioration du maïs et du blé (CIMMYT) (Braun et al., 1996) définissent les « mega-environnements » comme de larges zones géographiques, souvent transcontinentales. Cependant, ces groupes peuvent inclure de larges gammes de stress, par exemple climatiques, et une variabilité interannuelle importante. Les groupes d'environnements peuvent également être structurés sur la base de combinaisons Site X Année X Génotype, plutôt qu'uniquement sur une base géographique. Avec cette structuration, certaines des sites distants peuvent être regroupés au sein d'un même groupe pour certaines années. Cette structuration permet de regrouper les environnements selon la nature des stress impactant la production et permet ainsi de réduire la variabilité interannuelle au sein des groupes (Chenu et al., 2013). Une caractérisation des TPE uniquement basée sur une combinaison Site X Année X Génotype permet cependant plus difficilement aux agriculteurs et sélectionneurs d'identifier des génotypes adaptés à un site donné, à moins qu'une analyse de la fréquence des types de stress par zone géographique ne soit réalisée en complément (Chapman et al., 2000; Chenu et al., 2013). A notre connaissance, la seule caractérisation des environnements de production de l'orge d'hiver, disponible dans la littérature et couvrant la zone de production française, a été effectuée par Hernandez-Segundo 26 Introduction - Etat de l'art et al. (2009). Cette caractérisation à très large échelle (75 pays) ne permet pas de détailler suffisamment la variabilité et les types de contraintes pour la production d'orge française. Le regroupement de sites (ou Site X Années) au sein de classes de TPE peut être réalisé à partir d'un diagnostic agronomique basé sur des résultats expérimentaux (Brancourt-Hulmel, 1999; Cooper et al. 1996). Le diagnostic agronomique permet d'analyser les différences entre les rendements observés des génotypes testés, et le rendement maximum de ces génotypes en situation optimale (Brancourt-Hulmel et al., 1999; Cooper et Fox, 1996). Par exemple, Lecomte (2005) a regroupé 29 combinaisons Sites X Années en 6 groupes de milieux, sur la base des pertes de rendement en blé estimées pour chaque facteur limitant, à l'aide de modèles statistiques, puis caractérise les principaux facteurs limitants des groupes ainsi formés. Les 6 groupes de milieux formés expliquent 73% de l'effet principal du milieu (estimé par une analyse de variance) et 28% de l'interaction en considérant l'ensemble des génotypes. La description des facteurs environnementaux impactant le rendement peut également être réalisée à travers l'utilisation d'un pool d'indicateurs environnementaux (Voltas et al., 2005). Par exemple, certains auteurs ont caractérisé les TPE à partir de données géographiques de climat et de caractéristiques de sols (p. ex. Hodson et White, 2007 dans le cas du blé ; Löffler et al., 2005 pour le maïs). Plus récemment, des études se sont basées sur des indicateurs de stress, calculés avec un modèle de culture, permettant ainsi de prendre en compte les interactions entre plantes, sol et climat dans l'indicateur (Chenu et al., 2013). Ces auteurs ont regroupé les stress hydriques des TPE du blé en Australie (considérant 124 années et 22 principales régions de production) en 4 principaux profils d'évolution de ce stress au long du cycle cultural, à l'aide de simulations. Contrairement à l'étude de Chenu et al. (2013), les TPE pour l'orge en France sont caractérisés par de multiples facteurs impactant le rendement. La diversité des facteurs climatiques, par exemple, réduisant le rendement de cette espèce est donc importante à prendre en compte.
3. Concevoir des itinéraires techniques adaptés au bas niveau d'intrant
3.1. Reconcevoir les itinéraires techniques en céréales Transformer les pratiques agricoles de manière cohérente, pour répondre à de nouveaux enjeux, nécessite une activité de conception, c'est-à-dire un processus visant à produire quelque chose de nouveau, par opposition à la production de connaissances qui vise à comprendre quelque chose qui existe (Simon, 1969). La conception est un processus actif, intentionnel, qui vise à générer simultanément des concepts et des connaissances qui déboucheront éventuellement sur de nouveaux produits, de nouvelles technologies ou de nouvelles méthodes de production Meynard et al., 2006). Ainsi, viser une production d'orge économiquement intéressante, respectueuse de l'environnement et respectant le cahier des charges brassicole, nécessite de repenser la manière dont est actuellement produite l'orge brassicole. De plus, les innovations (variété, modalité de conduite culturale) ne - Etat de l'art peuvent pas être évaluées sans considérer leurs interactions avec les autres éléments du système de culture ou de l'itinéraire technique8 (Jeuffroy, 2014). Des marges de manoeuvre importantes existent pour améliorer la durabilité des productions agricoles françaises. Par exemple, un rapport d'étude sur la contribution de l'agriculture française à la réduction des émissions de gaz à effet de serre estime que le potentiel de réduction de la fertilisation minérale sans affecter les rendements est important. La plupart des voies de réduction de la fertilisation envisagées s'accompagnent d'une baisse des coûts pour l'agriculteur (Pellerin et al., 2013). La conception de méthodes de production d'orge d'hiver 6 rangs, moins dépendantes des intrants de synthèse, peut s'appuyer sur l'exemple le plus documenté en France de reconception des itinéraires techniques en céréales : les itinéraires techniques à bas niveau d'intrants développés pour le blé. Ces travaux montrent l'importance de la cohérence des différents éléments de l'itinéraire technique pour permettre une bonne performance économique et environnementale de ce type de production. Dans ces itinéraires, une réduction de la densité de semis, combinée à une diminution de la fertilisation azotée, favorise une diminution des pressions de maladies foliaires, et ainsi une diminution de l'utilisation de produits phytosanitaires. De même, la diminution de la densité de semis entraine une diminution les besoins en azote au tallage. Elle autorise à décaler le premier apport d'azote, favorisant une meilleure valorisation de ce dernier, et à diminuer la dose totale d'engrais minéraux apportés. Ces itinéraires montrent ainsi une amélioration de l'efficience de l'utilisation des intrants (Loyce et al., 2012). En plus des avantages environnementaux cités en introduction, plusieurs indicateurs convergent pour montrer que les couples 'variétés rustiques 9 -itinéraires à bas niveau d'intrants présentent pour les agriculteurs moins de risques que les couples 'variétés classiques-itinéraires raisonnés' : un écart type et un coefficient de variation plus faibles du rendement et de la marge entre années, une moindre sensibilité de la marge aux fluctuations du prix du blé et de l'énergie et des pertes moindres en cas d échec de la culture (Bouchard et al., 2008).
3.2. Leviers mobilisables pour atteindre une production économe en intrants
Dans les itinéraires techniques à bas niveaux d'intrants, l'utilisation réduite des engrais azoté peut entrainer des carences temporaires. De même, l'utilisation réduite de produits phytosanitaires ne permet pas une maîtrise optimale des maladies, des ravageurs et des adventices. Ces facteurs de stress biotiques et abiotiques peuvent être atténués, en condition d'intrant réduits, par les caractéristiques des varéiétés. Loyce et al. (2008) montrent que l'intensité de septoriose est similaire entre une combinaison variété peu résistante à la septoriose (note résistance de 2) et un itinéraire technique très intensif, et une variété plus résistante (note résistance 7) et un itinéraire L'itinéraire technique est considéré comme une combinaison logique et ordonnée des techniques mises en oeuvre sur une parcelle agricole en vue d'en obtenir une production (Sebillotte, 1974, 1978). La cohérence et les interactions entre éléments de l'itinéraire technique font donc référence explicite à un objectif de production considéré. 9 Une variété est considérée comme « rustique » sur son efficacité à atteindre un haut niveau de performance pour trois critères : résistance aux maladies du feuillage et à la verse, capacité à maintenir un rendement élevé en situation de stress, et stabilité du rendement et de la teneur en protéines (Rolland et al., 2003) 8 Introduction - Etat de l'art technique peu intensif. À l'instar des itinéraires techniques intensifs en intrants, la caractérisation des variétés et des modalités techniques adaptées à des conduites économes en intrant devrait se faire suivant les caractéristiques des environnements, de manière à adapter le triptyque Génotype X Environnement X Conduite culturale. Le développement de génotypes ayant la capacité d'atteindre des rendements élevés en conditions d'intrant réduit et dans des situations climatiques fluctuantes est nécessaire (Heinemann et al., 2014) Les itinéraires techniques peuvent, en effet, être adaptés pour modérer les impacts négatifs des intrants sur la production. En blé, par exemple, des stratégies variées de fertilisation azotée ont été développées pour diminuer le recours aux engrais de synthèse sans impacter le rendement ou la marge brute de la production. Ainsi, Ravier, 2017, se basant sur des travaux de Jeuffroy et Bouchard (1999), ont caractérisé les carences otées temporaires non préjudiciables pour le rendement de la culture (INN 10 supérieur à 0.4, 0.7, 0.7 et 0.8 pour les stades Zadok 30, Zadok 32, Zadok 39 et Zadok 60 respectivement). Grâce à une nouvelle méthode de gestion de la fertilisation azotée ne faisant pas appel à une dose d'azote calculée en début de cycle, ces auteurs suggèrent qu'il est possible de fortement diminuer les quantités d'azote apportées sans pénaliser le rendement. En se basant sur la méthode du bilan (Remy et Hebert, 1977), Loyce et al. 29 Introduction - Etat de l'art et abiotiques générés) dans lesquels elles sont insérées (Fargue et al., 2005 ; Kirkegaard et Hunt, 2010 ; Voltas et al., 1999a, 1999b ; Zhao et Xu, 2012). En particulier, les performances des variétés varient suivant les niveaux d'azote disponible (Edney et al., 2012) et la présence de maladies (Warzecha et al., 2011). Les variations de performances entre génotypes qui résultent des stress biotiques et abiotiques causés par une modification de l'itinéraire technique sont appelées interactions Génotype-Conduite culturale (IGC). Ces constats ont amené certains auteurs à justifier la nécessité d'adapter les variétés et leur méthode de sélection aux itinéraires techniques pour lesquels ils sont destinés (Atlin et Frey, 1990; Austin, 1988; Brancourt-Hulmel et al., 2005; Le Campion et al., 2014). Par exemple, Rolland et al. (2012) stipulent que seule la mobilisation de nouvelles variétés, autres que celles sélectionnées pour les systèmes de culture intensifs permettent d'atteindre une production quantitative et qualitative satisfaisante pour des itinéraires techniques menés sans intrants chimiques.
3.3. Comment repérer les génotypes adaptés au bas niveau d'intrants?
De nombreux auteurs ont démontré que le pool de meilleurs génotypes pour un itinéraire technique étaient d'autant plus différents de ceux d'un autre système au fur et à mesure que les différences de stress entre les systèmes augmentent (Bänziger et al., 1997 pour stress azoté et rendement de maïs, Cooper et al., 1997 pour stress hydrique et rendement de blé). En effet, les classements variétaux peuvent changer entre itinéraires techniques, en fonction du niveau de stress, et suivant les variables de production analysées. Pour certains auteurs, les génotypes adaptés aux stress sév ères ont une plus faible probabilité d'être sélectionnés en itinéraires techniques avec utilisation intensive d'intrants (Ceccarelli et al., 1996). Ainsi, les variétés avec de forts rendements en itinéraires techniques avec forte utilisation d'intrants ne sont pas toujours ceux ayant des rendements élevés en bas niveaux d'intrants ou en agriculture biologique (Murphy et al., 2007; Reid et al., 2011). D'un point de vue pratique, pour s'assurer de garder les meilleurs génotypes pour un itinéraire technique donné, le sélectionneur doit conserver une proportion élevée de génotypes quand les essais sont menés au sein d'un autre itinéraire technique (Brancourt-Hulmel et al., 2005; Le Campion et al., 2014). Note de tolérance
à
rouille brune
Note de tolérance à la rouille jaune Figure 8. Effet de la résistance variétale (notée de 1 à 9) et de l'itinéraire technique (CM : crop management) sur les pressions maladies observées (Septoriose, rouille brune et rouille jaune). Le niveau d'intrant est décroissant de CM1 to CM4. Graphique adapté de Loyce et al., (2008).
3.4. Quelle diversité génétique mobiliser pour répondre aux nouveaux enjeux de production? L'adaptation des caractéristiques génotypiques à l'itinéraire technique (et aux stress qu'il génère) et aux environnements de production entraîne une nécessaire analyse de la diversité génétique disponible pour optimiser le triptyque Génotype X Environnement X
Conduite culturale. La sélection et le développement de génotypes adaptés à certains environnements (et/ou certains itinéraires techniques) requiert l'existence d'une diversité génétique suffisante, et une analyse précise de cette dernière (Donald, 1968; Mohammadi et Prasanna, 2003) susceptible d'orienter la sélection. La diversité génétique permet, en effet, l'adaptation des variétés aux contraintes locales, de sols ou climatiques et de maintenir le progrès génétique (Brown-Guedira et al., 2000; Gepts, 2006). Des ressources génétiques domestiquées peuvent être mobilisées (par exemple issues des collections, des ressources des sélectionneurs ou catalogues officiels d'inscription des variétés). L'échange de ressources génétiques entre programmes de sélection de différentes entreprises est, par exemple, un moyen efficace pour maintenir ou augmenter le progrès génétique (Gutierrez et al., 2009). Au XXe siècle, cependant, une importante érosion de la diversité génétique cultivée a été observée pour les céréales (Bonnin et al., 2014; Shah et al., 2017), réduisant potentiellement les voies d'adaptation des Etat de l'art variétés à de nouvelles contraintes biotiques ou abiotiques. Une première phase d'érosion correspond au remplacement des variétés de pays11 par des variétés de lignées pures (Goffaux et al., 2011). Les génotypes sélectionnés par les sélectionneurs ont en effet été obtenus à partir d'un nombre relativement restreint de géniteurs de variétés de pays, et seules les lignées homogènes ont été enregistrées et diffusées auprès des agriculteurs (Bonneuil et Thomas, 2009). Une seconde phase d'érosion a été entraînée par la diffusion à large échelle de gènes clefs pour l'adaptation des variétés aux pratiques agricoles intensives, comme par exemple la diffusion d'un petit nombre de variétés avec fort potentiel de rendement et avec des caractéristiques de nanisme (van de Wouw et al., 2010). Introduction - Etat de l'art génotypes, de « garantir que les variétés inscrites ne présentent pas de défaut majeur » et ainsi d'éliminer tout ce qui n'est pas conforme aux critères du Comité Technique Permanent de la Sélection12 (Lecomte, 2005). De nombreuses méthodes statistiques ont été développées pour analyser à partir des données de réseaux d'essais plus précisément la diversité des comportements variétaux en fonction du milieu dans lequel ils sont cultivés (Brancourt-Hulmel et al., 1997 ; Van Eeuwijk, 1995, Van Euwijk, 1996). Ces méthodes sont basées sur une décomposition de l'IGE et sont utiles pour i) Evaluer la capacité des variétés à maintenir leur rang dans différents environnements plus ou moins stressant, ii) Caractériser les variétés vis-à-vis de leur tolérance aux stress environnementaux et leur capacité à valoriser les ressources, iii) Expliquer les réponse différentielles des variétés en introduisant dans les modèles des covariables environnementales et iv) Prédire les IGE et préconiser des variétés pour des conditions non expérimentées. Pour positionner les variétés par rapport aux environnements expérimentés et caractériser ces dernières vis-à-vis de leur tolérance aux stress environnementaux et leur capacité à valoriser les ressources, différentes méthodes (par ex. régression conjoint ou modèles AMMI - Additive Main effects and Multiplicative Interaction) sont disponibles. Développés depuis les années 1920 (Mooers 1921, Stringfield et Salter 1934 et Yates et Cochran 1938, Finlay et Wilkinson 1963), les modèles de régression conjointe expriment l'IGE pour chaque génotype par un produit entre la performance moyenne (par exemple le rendement- appelé index environnemental) de l'ensemble des génotypes pour un environnement donné et un coefficient représentant une sensibilité du géno à cet index environnemental. Ce modèle suppose donc une réponse linéaire des génotypes au potentiel de chaque environnement. Les génotypes peuvent ensuite être comparés entre eux sur leurs sensibilités spécifiques vis-à-vis de l'index environnemental (Eberhart et Russel, 1966) : les génotypes valorisant bien les milieux favorables, les génotypes bien adaptés aux milieux défavorables et les génotypes plus ou moins bien adaptés à l'ensemble des milieux (Finlay et Wilkinson, 1963). Ce type de modèle permet aussi d'identifier des génotypes stables dans le sens de Römer (1917), c'est-à-dire ayant une performance constante dans les différents environnements. Dans l'exemple de Brancourt-Hulmel et al. (1994) et repris Figure 9, le génotype Apollo présente une plus forte réponse à la fertilité du milieu (coefficient de 1,54) que le génotype RE8914 (coefficient de 0.67). 12 Organisme sous l'égide du ministère français de l'agriculture qui Élabore les règlements d'inscription des variétés de semences au catalogue officiel des espèces et variétés, propose l'inscription de nouvelles variétés au ministre et participe aux définitions des règles techniques concernant la production des semences.
33 Introduction - Etat de l'art
Figure 9. Illutation de résultat d'un modèle de régression conjointe : Courbe de réponse de deux génotypes de blé tendre aux rendements moyens des milieux. Les pentes de courbes représentent les sensibilités des génotypes à l'index environnemental (ici rendement moyen des milieux). Graphique issu de Brancourt-Hulmel et al., (1994)
Le modèle AMMI également développé depuis les années 1920 (Fisher et Mackenzie 1923, Williams, 1952; Gollob, 1968; Mandel, 1969; Perkins et Perkins, 1972; Gabriel, 1978; Kempton, 1984) est appliqué à la sélection variétale depuis Gauch et Zobel (1988). Dans ce modèle, l'IGE est résumée par une Analyse en Composantes Principales (ACP) pour éliminer le bruit résiduel de l'IGE. Les IGE sont alors interprétées par les premières composantes principales de l'ACP. Les génotypes et les environnements peuvent être projetés sur les axes principaux de l'ACP, cette représentation visuelle en « biplot » a été développée par Gabriel (1978). Cette représentation permet d'identifier les génotypes les plus performants et les plus adaptés à certains environnements particuliers (Malosetti et al., 2013). Par exemple, Muthuramu et al. (2011) - Figure 10 analysent que le génotype P2P4 situé dans le cadrant opposé à l'environnent E2, a des performances qui chutent plus fortement que les autres génotypes pour cet environnement. Au contraire, le génotype P6P semble plus adapté que les autres génotypes à cet environnement. Introduction
- Etat
de
l
'art
Figure 10. Illustration de résultat de modèle AMMI (Additive Main effect, Multiplicative Interaction) : Réponse de 36 génotypes de riz (point rose) à 3 environnements de production (carré bleu). Graphique issu de Muthuramu et al. (2011)
. Les méthode d'analyse de l'IGE peuvent être de type explicative et prédictives quand elles permettent d'interpréter et d'analyser l'origine de l'IGE et de prédire les performances des génotypes dans d'autres milieux (par ex. régression factorielle (Denis 1980), ou régression par des moindres carrés partiels -Partial least square regression -PLS- Vargas et al., 1999). La régression factorielle décompose l'IGE en une structure additive. L'IGE est modélisée en fonction de co-variables environnementales et/ou génotypiques. Les covariables relatives au milieu sont choisies pour représenter les facteurs responsables des différences de performances variétales ou d'adaptation particulière des génotypes (par exemple les facteurs impactant le rendement). Dans ce cas, les génotypes sont caractérisés par des coefficients de régression, sur un ensemble d'index environnementaux (Denis, 1980; Denis et Vincourt, 1982). Comme pour la régression conjointe, le signe des coefficients renseigne sur l'adaptation des génotypes, par comparaison au génotype « moyen ». Les génotypes bien adaptés à un index environnemental ont des coefficients positifs, les génotypes mal adaptés ont des coefficients négatifs (Denis, 1980; Denis et Vincourt, 1982). Par son hypothèse de linéarité entre les environnements, le modèle de régression factorielle présente l'avantage de pouvoir prédire des performances génotypiques d'individus, préalablement évalués, dans de nouveaux environnements (Smith et al., 2005). Dans une étude sur la vigueur au printemps du raygrass, Balfourier et . (1997) expliquent plus de 70% des IGE pour cette variable par la température minimale du mois le plus froid du cycle cultural et une caractéristique variétale (la fréquence allélique du gène PGI2-20). Selon les auteurs, ces résultats permettent aux sélectionneurs d'identifier des génotypes de ray-grass ayant une forte vigueur au printemps. Introduction - Etat de l'art
L'analyse des IGE par PLS permet également de modéliser cette dernière en fonction de co-variables environnementales et/ou génotypiques. Cependant, les coefficients de régression sont calculés sur des axes composites (issus d'une combinaison linéaire de l'ensemble des variables génotypiques/environnementales inclues dans l'analyse), ce qui permet d'éviter des problèmes de colinéarité entre les variables explicatives. Cependant, avec méthode, il est plus difficile d'intégrer simultanément dans l'analyse des co-variables génétiques et environnementales (Vargas et al., 1999). L'évaluation expérimentale présente, cependant, certains inconvénients, notamment liés au nombre limité de milieux ou de génotypes testés et aux coûts des dispositifs expérimentaux (Lecomte, 2005). Des approches par modélisation ont été développées pour pallier cette limite.
3.6. Analyse de la diversité des réponses génotypiques par modèle (in silico)
L'évaluation des performances variétales dans des conditions pédoclimatiques contrastées nécessite généralement plusieurs années pour pouvoir couvrir des conditions climatiques variées, et peut donc être onéreuse. Ainsi, la gamme des caractéristiques variétales et des conditions environnementales testées reste restreinte, limitant l'extrapolation des résultats à des situations non expérimentées mais potentiellement intéressantes (Asseng et al., 2002 ; Hammer et al., 1989 ; Jeuffroy et al., 2006 ; Smith et Gooding, 1999). Les modèles de culture, au contraire, permettent l'évaluation rapide d'un grand nombre de systèmes virtuels, et donc de nouvelles combinaisons de caractères variétaux non testés expérimentalement (Rossing et al., 1997). L'utilisation des modèles de culture pour l'identification de caractéristiques variétales (et/ou de l'itinéraire technique) d' êt a été proposée depuis les années 1980 mais s'est largement développée depuis 25 ans (Jeuffroy et al., 2014; Shorter et al., 1991). Ils ont, par exemple, été utilisés pour identifier les caractéristiques variétales adaptées à des contextes de production en tournesol (Casadebaig et al., 2011), pois (Jeuffroy et al., 2012), arachide (Suriharn et al., 2011). Les modèles peuvent, en effet, jouer un rôle clé pour analyser l'impact de l'amélioration des tolérances variétales aux facteurs du milieu sur les variables de production (Ramirez-Villegas et al., 2015). Ils permettent d'analyser et d'interpréter les IGE, ainsi que d'identifier le rôle de certains caractères variétaux dans l'adaptation des génotypes à des environnements variés (Barbottin et al., 2006; Boote et al., 1996; Casadebaig, 2008; Fargue, 2003). Par exemple, nombre de travaux récents se concentrent sur l'identification de caractéristiques génotypiques adaptées au changement climatique (Rötter et al., 2015; Semenov et al., 2014; Tao et al., 2017). De nombreux modèles de culture ont été développés pour étudier l'impact des caractéristiques génotypiques et des facteurs du milieu impactant la production des plantes. Jusqu'à récemment, le développement et l'utilisation des modèles de culture étaient le plus souvent menés par les équipes de recherche ou laboratoire dans lesquels les modèles ont été développés. Par exemple, les travaux qui ont initié la caractérisation de génotype de riz super-productif (Dingkuhn et al., 1991) ont été basés sur Etat de l'art la mise en place d'un modèle de culture du riz (L3QT) développé par l'IRRI13 prédisant le rendement en fonction des stress azotés (Graf et al., 1991; Vries, 1989). La plateforme de simulation APSIM (Agricultural Production Systems sIMulator) a été développée par l'unité de recherche APSRU (Agricultural Production Systems Research Unit – un groupe collaboratif composé de membres du CSIRO et des agences gouvernementales de l'état du Queensland en Australie). Le modèle a été utilisé pour optimiser l'efficience d'utilisation des cultures en eau en Australie (Hochman et al., 2009), et en azote (Hochman et al., 2013). Le modèle a également été utilisé pour analyser les IGE. Par exemple, pour le sorgho, Hammer et al. (2010) ont montré que les génotypes les plus hauts montraient aussi une efficience d'utilisation lumineuse plus élevée. Ils ont aussi étudié l'impact des caractéristiques génotypiques sur la dynamique de l'azote dans la plante et leur capacité à maintenir le feuillage vert après floraison. Enfin, dernier exemple, le modèle Azodyn (Jeuffroy et Recous, 1999) a été développé en France pour évaluer différentes options de fertilisation sur le rendement et la teneur en protéines du blé tendre. Il basé sur des travaux en blé qui ont permis de comprendre les effets des carences azotées temporaires sur la production quantitative et qualitative (Jeuffroy et al., 2000; Jeuffroy et Bouchard, 1999). Il a été utilisé pour mettre au point des stratégies de fertilisation azotée permettant conjointement de limiter les pertes en rendement, de maximiser les chances d'obtention d'une teneur en protéines élevée, et de réduire les pertes vers l'environnement pour différentes conditions pédoclimatiques en France (Jeuffroy et al., 2013 ; Meynard et al., 2002).
| 36,014
|
02/tel.archives-ouvertes.fr-tel-00128772-document.txt_8
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 1,175
| 1,843
|
(A.10) Cette équation est réelle et possède des racines réelles successives notées xnl liée à la partie réelle des pôles xɶnl, obtenue par l'équation (A.7), suivant xnl = Re{ xɶnl }. (A.11) L'équation (A.10) s'écrit également
1 ζn = J n (x )J n ( x )'+ Yn ( x )Yn ( x )' ( x [J n'( x )] + [Yn'( x )] 2 2 ). Annexe : la matrice S en acoustique Expression des coefficients Sn et Rn autour de la résonance
Le coefficient résonant Sn(*) est de même forme que le coefficient Sn donné par l'équation (A.4). L'angle δn(*) vérifie, d'après l'équation (A.9d) { cot an δ n (* ) (x )} = p n (x ) − qn (x ). rn ( x ) (A13) Par un développement limité à l'ordre 1 autour d'une fréquence de résonance, notée x(*) { cot an δ n ( *) ( x )} ≈ 2 (*) x −x. Γ ( ) (A14) Le terme Γ est appelé largeur de résonance, il ne dépend pas de x = k0a autour de la résonance. Les coefficients résonants Sn(*) et Rn(*) sont donnés par formules de Breit-Wigner, autour de la résonance x(*), suivant 196 S n
(*)
= x (*) − x − iΓ 2, x (*) − x + iΓ 2 (A15a) Rn (*) = iΓ 2. x − x − iΓ 2 (A15b)
(*) Annexe : la matrice S en acoustique Exemples : cylindres d
'acier et de
nylon
Les exemples du paragraphe II.1.4 sont repris : les cylindres d'acier et de nylon. Le cas du coefficient R0 de l'acier de la figure 2.10 est présenté sur la figure A.2. Les coefficient R1 et R2 du nylon de la figure 2.11 sont présentés sur la figure A.3.
figure A.2 : module et phase des coefficients R0 de l'acier et infiniment rigide (a) et (b). module et phase des coefficients R0(*) comparé à l'équation (A.15b) (c) et (d).
Annexe : la matrice S en acoustique
figure A.3 : module et phase des coefficients Rn comparé à l'équation (A.15b) R1 (a) et (b), R2 (c) et (d). Ce travail de thèse s'inscrit dans la continuité des thématiques développées au laboratoire depuis le milieu des années 1990 autour de la méthode DORT, l'imagerie, le contrôle non destructif, l'acoustique sous-marine. Une étude plus fine des phénomènes de diffusion acoustique, prenant appui sur les nombreuses études précédentes, a été développée dans la partie II. Le formalisme de décomposition en modes normaux de vibrations, pondérés par des coefficients de diffusion Rn a été utilisé pour décrire le cas du cylindre, du tube, de la sphère, de deux cylindres et de la sphère creuse. Cette étude a permis d'écrire de façon plus précise l'expression théorique de la matrice de transfert K dans la partie III. Les invariants du Retournement Temporel peuvent être alors obtenus par décomposition en valeurs singulières (SVD) de la matrice de transfert théorique. Il a également été montré qu'il est possible de réduire le problème de dimension N, le nombre de transducteurs du réseau, à un problème dont la dimension est liée au rapport entre la taille de l'objet et la longueur d'onde. Cette dimension est de l'ordre de 2k0a + 1. Ce point de vue permet non seulement de gagner du temps de calcul, dans la mesure où la dimension 2k0a + 1 est inférieure à N. Il permet également d'exprimer les valeurs singulières de façon analytique. Notamment dans la limite petit objet, soit k0a inférieur à 0,5, le problème est de dimension 3 et les trois valeurs singulières s'expriment en fonction des contrastes de compressibilité et de densité α et β entre le diffuseur et le milieu. Ces résultats ont été généralisés à la limite de sous-résolution : tant que la taille de l'objet est inférieure à la tache de focalisation, les deux premières valeurs singulières s'expriment facilement en fonction des coefficients de diffusion Rn et des projections des modes de normaux vibrations symétriques et anti-symétriques. Si la distance d'observation F est grande devant l'ouverture D du réseau, les vecteurs singuliers peuvent être facilement exprimés par les polynômes de Legendre. Ceci est également valable pour un réseau en quart de cercle. Ce point de vue a été étendu au cas de la sphère. 199 Pour l'essentiel, ces résultats ont pu être verifié par des expériences. Ils sont en cohérence avec le point de vue qui prévalait jusqu'alors : pour un petit diffuseur (sous entendu plus petit que la tache de focalisation), il existe une valeur singulière principale associée au vecteur propre focalisant de façon isotrope sur l'objet. En particulier, ce résultat est toujours bien vérifié dans le cas de cylindres métalliques insonifiés par un réseau linéaire de transducteurs. Le problème de la diffusion multiple entre deux cylindres élastiques a également été abordé. La prise en compte de l'anisotropie de la diffusion s'est montrée essentielle pour bien modéliser les résultats expérimentaux et compléter les études faites précédemment au laboratoire. Deux perspectives ont été proposées dans les parties IV et V : appliquer les résultats à l'électromagnétisme pour des objets à deux dimensions (2D) et à l'acoustique sous-marine. Dans le cas de l'électromagnétisme, les analogies et les différences, dues notamment au caractère vectoriel des champs, ont été mises en évidence. Les expériences correspondantes ont été menées après la thèse. Pour l'acoustique sous-marine, le traitement des données expérimentales obtenues à Brest au printemps 2005 a été poursuivi. Des expériences complémentaires permettront d'utiliser les techniques de caractérisation présentées dans ce manuscrit. Décomposition de l'Opérateur de Retournement Temporel appliquée à l'imagerie et à la caractérisation ultrasonore Résumé
L'analyse de la diffusion acoustique est un outil important pour l'imagerie et la caractérisation. Les applications concernent le contrôle non-destructif, l'imagerie médicale ou l'acoustique sous-marine. La méthode employée dans ce manuscrit est la Décomposition de l'Opérateur de Retournement Temporel ou méthode DORT. Elle consiste à étudier les invariants du Retournement Temporel. Pour un réseau donné de transducteurs, ceux-ci correspondent aux vecteurs singuliers obtenus par décomposition en valeur singulières de la matrice K des réponses inter-éléments du réseau. Chaque vecteur est associé à une valeur singulière. La méthode DORT est ici utilisée pour caractériser différents objets élastiques : cylindre, tube, sphère et deux cylindres. Le formalisme de décomposition du champ diffusé en modes normaux de vibrations ou harmoniques, permet de déterminer les invariants du Retournement Temporel théoriques. Il est alors possible de réduire le problème de dimension N, le nombre de transducteurs du réseau, à un problème de dimension d'ordre 2k0a+1, où a est la dimension caractéristique de l'objet et k0 le nombre d'onde dans le fluide environnant. Cette approche fournit des expressions analytiques des valeurs singulières, notamment dans la limite petit objet (k0a < 0,5) et dans la limite de Rayleigh (2a inférieur à la tache de focalisation). Ces résultats, bien vérifiés expérimentalement, sont en accord avec le point de vue qui prévalait jusqu'alors : pour un petit diffuseur, il existe une valeur singulière principale associée au vecteur singulier focalisant de façon isotrope sur l'objet. De plus, les analogies avec l'électromagnétisme à deux dimensions également présentées..
| 49,185
|
21/tel.archives-ouvertes.fr-tel-00840497-document.txt_7
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 8,195
| 12,458
|
138 âge inconnu, membre de l'instance nationale provisoire préfigurant la mise en place de Pôle Emploi, entretien réalisé le 6 janvier 2009 À fin juin 2007, seuls 254 sites correspondant à la définition du guichet unique telle que définit préalablement existaient en France. À la même date, seules sept MDE hébergent dans leurs locaux un guichet unique. Un an plus tard, le rythme s'accélère puisque 628 sites communs aux deux entités sont recensés sur le territoire national. En dépit de cette progression, le processus de rapprochement des deux entités est jugé « largement inabouti » et la mise en place des MDE n'apparaissent pas comme « une réponse adaptée »331 pour réaliser le même jour l'inscription et le premier entretien de conseil.
3.3 Les conditions de réalisation de la réforme : une série d'opportunités économiques et sociopolitiques réunies
Le projet de fusion entre les deux instances n'est donc pas nouveau puisque « () les arguments en faveur de la réforme et les critiques du fonctionnement du service public de l'emploi datent de la fin des années 1980. Ce n'est donc pas la rationalité technique de la réforme qui a changé, mais les conditions de sa faisabilité sociale »332. Pour Jean-Claude Barbier, c'est une « construction très progressive des justifications de la réforme » qui s'est opérée. Outre les rapprochements de différents ordres énoncés plus haut entre le réseau opérationnel de l'Unedic et l'ANPE en France depuis les années 1990, Jean-Claude Barbier met en évidence des éléments essentiels qui « convergent pour bousculer le statu quo ante et (qui) pourraient, dans les prochaines années – « fusion » complète ou pas – engager une réforme nettement plus radicale ; ils constituent les bases d'un changement profond de « référentiel » en matière de 3.3.1 Des conditions de réalisation économiques et politiques sous l'influence de la Stratégie Européenne pour l'Emploi
Un des éléments majeurs tient dans l'introduction de la Stratégie Européenne pour l'Emploi et la méthode ouverte de coordination de 2000 qui invite de plus en plus la France à suivre les choix opérés par ses voisins européens. Si cette coordination a un caractère procédural (), 331 Serge Dassault, Sénat, 2008, op. cit., p.6. Jean-Claude Barbier, 2007, op. cit., p.3. 333 Ibid., p.5. 332 139 « les élites françaises sont cependant, de plus en plus soumises aux questions et investigations de la Commission Européenne et à ses conseils répétés. Dans le domaine de l'emploi, elles ont très longtemps résisté à l'extension de l'évaluation, maintenant une gestion du marché du travail opaque. Cette attitude est de moins en moins tenable, au moment où, par contraste, l'Allemagne – dont le système et les circonstances sont relativement proches, par leur « bismarckisme » - s'est engagée dans une réforme d'ampleur »334. Ainsi, les réformes menées dans les pays européens, notamment en matière de rapprochement des fonctions d'indemnisation et de placement des demandeurs d'emploi opèrent sur la France comme une invitation forte à se rallier aux choix faits par ses pays voisins335. Au-delà des réformes menées à l'étranger sur l'architecture du SPE (voir annexe n°6 sur l'organisation du SPE dans les pays de l'Union Européenne), ce sont les représentations liées au marché du travail et à la politique économique qui amènent la France à se conformer aux options de ses voisins (voir encadré n°2 relatif aux orientations convergentes prises par les pays de l'Union Européenne en matière de politique d'emploi), représentations inspirées de la « micro-économie néoclassique du marché du travail ». Cette vision amène les pouvoirs publics à appréhender le travail comme tout autre bien marchand qui s'échange sur le marché. La rencontre entre l'offre et la demande de travail déterminant ainsi le niveau de salaire et d'emploi d'équilibre. Dans cette vision, le fait d'accepter un emploi résulte d'un calcul, d'un arbitrage travail / loisir et plus « le prix du travail est élevé, plus ils sont incités à proposer et vendre leurs services ou à rechercher des heures supplémentaires lorsqu'ils ont déjà un emploi, au détriment des loisirs ». L'employeur de son côté est incité à embaucher « tant qu'un salarié supplémentaire lui rapporte autant qu'il lui coûte () »336. 338 339 Ibid., p.59-60. Jean-Claude Barbier, 2007, op. cit., p.6. 141 Encadré n°2 : Les orientations convergentes prises par les pays de l'Union Européenne en matière de politique d'emploi
À partir d'une petite revue de la littérature sur les récentes transformations de la politique d'emploi, il est possible de dégager quelques grandes orientations prises par les pays de l'UE. La fonction d'indemnisation : La poursuite de « l'érosion des systèmes indemnitaires » amorcée dans les années 1990 (durcissement des critères d'éligibilité, réduction des montants et des durées d'indemnisation, redéfinition de « l'emploi convenable ») ; - Le « renforcement des processus de contrôle et de sanction [des chômeurs]. La « chasse aux « faux » chômeurs » constitue en ce sens une inflexion commune observée dans les différents pays et qui se matérialise par un « renforcement () des contrôles de la recherche active d'emploi () » ; - Le rétrécissement de l'assurance chômage qui conduit à un « report sur d'autres régimes de protection sociale » 340. La structure institutionnelle du Service Public de l'Emploi : - Le renforcement des liens entre les fonctions d'indemnisation et de placement des chômeurs qui se caractérise par la fusion des deux fonctions ou leur rapprochement par l'adoption d'outils permettant une plus grande coordination341 ; - Le regroupement sous un même toit des acteurs de l'emploi par la mise en place de « guichet unique »342 ; - Le rapprochement des structures ayant en charge le placement des chômeurs avec les structures de l'aide sociale343 ; Les logiques d'accompagnement et de placement des chômeurs : - La fin du monopole du SPE en matière de placement s'accompagne d'une plus grande intervention des Opérateurs Privés de Placement (OPP) sur le marché du travail344 ; - Le recours au profilage des demandeurs d'emploi pour lutter contre le chômage de longue durée et rationaliser les dépenses du SPE. Ce profilage s'accompagne d'ailleurs régulièrement de la mise en place d'un guichet unique pour les demandeurs d'emploi () [ainsi que la nomination] d'un référent pour chaque demandeur d'emploi () 345 ; - La volonté d'une plus grande coopération entre le SPE et les entreprises par le développement des « produits et services proposés aux employeurs » (avec une co-existence de services de base gratuits et de services plus élaborés et payants () »346 ; - La contractualisation entre le SPE et le chômeur d'un plan d'action individualisé de retour à l'emploi347. 340 Florence Lefresne, novembre 2008, op. cit., p.3-24. Carole Tuchszirer, « La fusion entre indemnisation et placement se renforce partout en Europe », Le Monde Économie du 25 novembre 2003, propos recueillis par Antoine Reverchon, p.III. Plutôt que « fusion », nous avons volontairement utilisé le terme de « rapprochement » qui montre bien que les entités peuvent conserver leur indépendance (juridique, financière) mais mettre en place les outils nécessaires à une meilleure coordination. 342 OCDE, Politiques de marché du travail et service public de l'emploi : actes de la conférence de Prague de juillet 2000, 2001, p.20. 343 Carole Tuchszirer, 2003, op. cit. 344 Nicolas Grivel, Nathalie Georges, Dominique Méda, « Les prestations et services d'accompagnement des demandeurs d'emploi. Comparaisons internationales Suède, Pays-Bas, Royaume-Uni », Rapport de Recherche du Centre d'Études de l'Emploi, n°41, décembre 2007, p.16. 345 Nathalie Georges, « Le profilage des demandeurs d'emploi : modèle américain versus modèle néerlandais », Travail et Emploi, n°112, octobre-décembre 2007, p.15-16. 346 OCDE, 2001, op. cit., p.21. 347 Nicolas Grivel, Nathalie Georges, Dominique Méda, 2007, op. cit., p.22. 341 142
3.3.2 Des conditions de réalisation sociopolitiques : fruits de négociation entre l'État et les partenaires sociaux
À plusieurs reprises au cours de l'histoire récente, l'idée de la fusion du réseau des Assedic et de l'ANPE a été évoquée. Le refus des partenaires sociaux constitue une raison majeure expliquant le report de la fusion. Les positionnements des partenaires ne sont pas identiques pour s'opposer à la fusion, mais un point d'accord subsiste néanmoins Ils ont toujours tous souhaités garder leurs prérogatives en matière d'assurance chômage, c'est-à-dire la possibilité de définir les règles relatives à l'indemnisation du chômage ainsi que le taux des cotisations payées par les salariés et les employeurs du secteur privé. Le projet initial des pouvoirs publics était de fusionner l'ANPE et l'Unedic. La position commune des partenaires sociaux a consisté à défendre le caractère paritaire de l'Unedic : Stéphane : « Les partenaires sociaux ne voulaient pas de cette fusion parce que l'Unedic est paritaire, syndicats de salariés et syndicats d'employeurs, et que c'était un des champs dans lequel ils intervenaient assez fortement et je dirais plutôt bien d'ailleurs, par rapport à l'assurance maladie, par rapport à d'autres sujets. Ils étaient plutôt excédentaires. Donc c'était leur ôter une partie de leurs prérogatives, et de l'autre côté l'ANPE c'est l'État, le bras armé de l'État. 143 chômage. C'est ça qui a conduit effectivement à conserver l'Unedic en tant qu'organisme bras armé des partenaires sociaux dans la gestion de l'assurance chômage, c'est « l'Unedic maintenue ». » Arnaud, homme, âge non connu, membre de l'instance nationale provisoire préfigurant la mise en place de Pôle Emploi, homme, âge non connu, entretien réalisé en janvier 2009 La fusion organise le transfert du recouvrement des cotisations de l'assurance chômage à l'Union de Recouvrement des cotisations de Sécurité Sociale et d'Allocations Familiales (Urssaf) organisme qui assure la gestion de la trésorerie de la Sécurité Sociale349. Ainsi, en dépit du maintien de l'Unedic, l'État a déjà organisé les possibilités d'une mise en commun des ressources de la Sécurité Sociale et de l'assurance chômage. C'est en tout cas une hypothèse envisagée par plusieurs des interlocuteurs rencontrés. En 2003, François Fillon alors Ministre des Affaires Sociales, du Travail et de la Solidarité, avait avancé l'idée de profiter de la baisse des cotisations chômage pour augmenter les cotisations de retraite. La dégradation du marché du travail qui a suivi a fait renoncer les pouvoirs publics à tout transfert de cotisations de ce type. Pourtant, l'idée est à nouveau évoquée en 2010, dans un contexte de crise économique, toujours par François Fillon, désormais Premier Ministre. Au-delà du front commun des partenaires sociaux pour conserver l'Unedic, des inflexions ont pu être notées au cours de ces dernières années, dans le sens d'une possibilité de fusion du réseau des Assedic et de l'ANPE. Car pour les partenaires sociaux, nul doute que les démarches imposées aux demandeurs d'emploi sont complexes du fait l'éclatement du système d'emploi. De ce point de vue, la mise en place des guichets uniques n'a pas rencontré d'opposition de leur part : Claude : « Si on fusionne l'Unedic et l'ANPE ça sera beaucoup plus simple pour les demandeurs d'emploi puisqu'au lieu d'aller à l'Assedic d'abord, puis ensuite à l'ANPE qui peuvent être distantes de 3-4-5-6 kilomètres, s'ils ont tout sous le même lieu ça sera beaucoup plus simple. Présenté comme ça personne n'est contre. () le rapprochement physiquement s'est fait. 144 Force Ouvrière (FO) était le syndicat le plus farouchement opposé à la fusion, considérant que l'accompagnement et le placement des demandeurs d'emploi est une action qui doit relever exclusivement de l'État. L'autre opposition majeure à la fusion pour FO réside dans le fait qu'elle va amener à terme à un pilotage unique de l'État. Pour l'organisation, le maintien de l'Unedic n'est qu'une étape intermédiaire, avant que l'État ne soit associé à la définition de la convention d'assurance chômage. Pour FO, le tripartisme risque de conduire à une ingérence forte de l'État d'une part et à une déresponsabilisation des partenaires sociaux d'autre part. Bref, à terme, le système risque d'être étatisé, et c'est pour cette raison que FO s'est opposée à la fusion. Pour finir, FO craint que la fusion des fonctions d'indemnisation et de placement ne facilite les contrôles des demandeurs d'emploi quant à leurs recherches effectives d'emploi et donc une « accélération des radiations de chômeurs, principale motivation () [pour eux] du projet gouvernemental »350. Ces craintes sont d'autant plus fortes pour l'organisation dans un contexte où le gouvernement a introduit la loi sur l'offre valable d'emploi. La Confédération Générale du Travail (CGT) quant à elle est opposée à la fusion parce qu'elle légitime l'intervention des opérateurs privés de placement. Pour la CGT, l'opération proposée n'est qu'une fusion opérationnelle des deux institutions, au détriment d'une reconfiguration en profondeur du SPE qui doit être tournée vers l'ensemble des demandeurs d'emploi et des salariés. Du point de vue de l'organisation, la fusion ne permet pas de prendre en compte la situation des précaires qui se retrouvent s du système. Le dernier argument de leur opposition renvoie au fait que la fusion relègue l'Afpa au second plan en ne l'intégrant pas au cercle réduit du SPE comme l'avait fait le plan de Cohésion Sociale en 2005351. Les oppositions des autres partenaires sociaux sont plus modérées : Claude : « Hier y'avait le Comité Supérieur de l'Emploi, c'est une structure qui donne un avis sur des textes réglementaires et législatifs que le gouvernement envisage de prendre en matière d'emploi. Donc ils sont obligés de saisir le Conseil Supérieur de l'Emploi, par exemple sur la fusion Assedic / ANPE. Donc la réunion s'est tenue hier, alors c'est un avis consultatif, donc même si tout le monde avait dit non hier, le gouvernement peut s'asseoir dessus. Mais le vote hier, y'a eu deux organisations qui ont voté contre : FO et CGT et tous les autres, tous les autres l'ont accepté plus ou moins ». Claude, homme, âge non connu, secrétaire général
David Rousset, « Unedic : les personnels très mobilisés contre la fusion avec l'ANPE », Jour après jour du 23/01/2008, propos tenus par JeanClaude Mailly, secrétaire général de Force Ouvrière [24/01/2008]. 351 Site internet de la Confédération Générale du Travail (CGT) : <http://www.cgt.fr/Fusion-ANPE-UNEDICAvis.html> Maurice Marion, « Fusion ANPE-Unedic : avis défavorable de CGT au Conseil Supérieur de l'Emploi », rubrique Travail/Chômage/Assurance chômage et service public de l'emploi du 20/11/2007 [25/11/2007]. Pour la Confédération Française des Travailleurs Chrétiens (CFTC) le rapprochement des deux entités est en effet envisageable pour améliorer l'efficacité du service rendu aux demandeurs d'emploi : « Des réformes sont nécessaires. Le service public de l'emploi constitué notamment de l'Unedic et de l'ANPE doit gagner en transparence et en lisibilité pour rendre encore plus performants les services rendus. L'accueil des demandeurs d'emploi peut être amélioré, notamment par la poursuite de la politique actuelle de recherche d'un local commun pour faciliter les premières démarches des demandeurs d'emploi. Des simplifications peuvent être organisées, des doublons supprimés () »352. Fusion donc pourquoi pas, mais à condition qu'elle s'accompagne de moyens financiers et humains supplémentaires. La formation des agents doit ainsi être assurée dans de bonnes conditions et à terme un agent suit 30 demandeurs d'emploi et non 120 comme c'est le cas actuellement selon les estimations de l'organisation353. Quant à la Confédération Française Démocratique du Travail (CFDT) l'attribution des aides en fonction du statut indemnitaire des chômeurs conduit à un système non seulement complexe, mais aussi à un système à double vitesse non équitable. La fusion apparaît en ce sens comme une solution envisageable pour simplifier et rendre plus juste le système. Option possible à condition que les moyens du futur opérateur mettent bien le « demandeur d'emploi au centre du système. () l'objectif n'est pas forcément l'accès à l'emploi rapide, mais l'accès à l'emploi durable () objectif qui mérite qu'on prenne le temps d'obtenir le meilleur pour les demandeurs d'emploi »354. côté du patronat en revanche, les oppositions sont nettement plus atténuées. Laurence Parisot, la présidente du Medef avait d'ailleurs indiqué dans son livre blanc intitulé « Besoin d'air » qu'elle était favorable à la fusion. Cet ouvrage est paru au tout début de l'année 2007, quelques mois avant les élections présidentielles au cours desquelles le candidat Nicolas Sarkozy avait annoncé dans sa profession de foi qu'il souhaitait opérer cette fusion. 352 Site internet de la Confédération Française des Travailleurs Chrétiens (
CFTC
) : <http://www.cf
t
c.fr/ewb_pages/a/actualite-6700.php> Philippe Louis, « La CFTC pour une amélioration opérationnelle du Service Public de l'Emploi », rubrique Actualités du 06/09/2007 [08/09/2007]. 353 Site internet de la CFTC : <http://www.cftc.fr/ewb_pages/c/communique_6867.php> Philippe Louis, « Rapprochement ANPE-Unedic: le oui mais de la CFTC », rubrique Accueil/Salle de presse du 08/11/2007 [12/11/2007]. 354 Site internet de la Confédération Française Démocratique du Travail (CFDT) : <http://www.cfdt.fr/rewrite/article/14743/actualites/emploi---travail/assurance-chomage/fusion-anpe-assedic:auservice-du-demandeur-d-emploi.htm?idRubrique=6889>, Aurélie Seigne, « Fusion ANPE-Assedic : au service du demandeur d'emploi », propos tenus par Annie Thomas, secrétaire nationale de la CFDT, rubrique Les actualités du 15/09/2008 [25/09/2008]. La question qui reste toutefois en suspend est celle du moment. Qu'est-ce qui peut expliquer que la fusion ait pu avoir lieu à ce moment de l'histoire? Les acteurs interrogés s'accordent tous à dire que la volonté du Président de la République a été déterminante. Deux des interlocuteurs rencontrés se risquent à une autre explication, que nous proposons ici sous forme d'hypothèse, compte-tenu de leur refus à nous expliquer plus avant les « dessous » exacts des évènements. L'échange ci-dessous retranscrit la formulation la plus claire exposée : Solen : « Outre la conservation de l'Unedic, comment expliquer que la fusion a été opérée en dépit des réticences des partenaires sociaux? Comment expliquer que la fusion ait eu lieu à ce moment précis? » Stéphane: « C'est Sarkozy qui (silence) qui l'a clairement imposée (silence) et qui a tenu (silence) Je (silence) Mais il était quand même un peu le seul à y croire. Un peu contre pour la petite histoire, Borloo ne voulait pas de cette fusion, ça c'était clair, ensuite Christine Lagarde, on ne peut pas dire qu'elle se soit beaucoup battue pour cette fusion, du côté de Matignon, pas un chat, c'est vraiment du côté de l'Élysée qu'ils ont souhaité cette fusion. Et donc effectivement, ensuite il a tenu, comme il sait le faire donc quand la machinerie est en route, ensuite, elle s'installe jusqu'au bout. Effectivement, on s'est retrouvé avec l'affaire de l'UIMM355 en même temps, où le président de l'Unedic, Denis Gaultier Sauvagnac a été mis en examen, a été obligé de démissionner et c'était sans doute le plus fervent oppos ant à la fusion. Certains diront même que le dossier est sorti de manière opportune, au bon moment. Voilà. Si, peut-être que du côté du Medef, Laurence Parisot, il y avait une plus grande ouverture à la fusion. Du côté patronal, je pense que ça a un peu bougé avec l'arrivée de Sarkozy, nouveau gouvernement, etc, ça a un peu bougé ». Stéphane, homme, âge non connu, directeur délégué d'une des entités ayant donné naissance à Pôle Emploi, homme, âge non connu, entretien réalisé le 22 août 2008 Voici les conditions de faisabilité de la réforme. De nombreuses hypothèses jalonnent les dernières explications relatives aux conditions sociopolitiques de la réforme en France. 355 L'Union des Industries et Métiers de la Métallurgie (UIMM) est une fédération professionnelle française regroupant, dans le domaine de la métallurgie, les principales entreprises françaises. L'UIMM est membre du Medef. Denis Gautier-Sauvagnac, à l'époque président de l'Unedic a démissionné le 23 octobre 2007, à la suite des révélations sur l'existence d'une importante « caisse noire » aux destinations controversées.
3.4 Entre souci d'économie et volonté de simplification du paysage institutionnel : retour sur les objectifs de la fusion
Les années deux mille se caractérisent par une restructuration en profondeur du champ de l'emploi. En ce sens la fusion du réseau des Assedic et de l'ANPE ne constitue qu'une des pièces du puzzle mis en place par les pouvoirs publics pour redéfinir les règles régissant le marché du travail. La définition des droits et devoirs des demandeurs d'emploi, la négociation des règles d'indemnisation du chômage, la réforme de la formation professionnelle et un peu plus tard la généralisation du RSA constituent quatre autres chantiers majeurs des réformes en cours. 3.4.1 Simplifier un paysage institutionnel complexe pour faciliter les démarches des demandeurs d'emploi
La fusion du réseau des Assedic et de l'ANPE a été annoncée à Dijon, lors d'une allocution du Président de la République Nicolas Sarkozy sur la réinsertion par le travail. Il y présentait la fusion comme une option pour mettre fin « au parcours du combattant du demandeur d'emploi en le plaçant, enfin, au centre du système. Il n'aura plus à aller d'un organisme à l'autre pour remplir ses différentes obligations. Le devoir d'un chômeur, c'est de rechercher un emploi, pas de supporter le fardeau de la complexité administrative. Et le devoir de la collectivité nationale, c'est de mobiliser ses moyens au service du retour du chômeur à l'emploi »356. À d'autres occasions, la fusion sera présentée par les pouvoirs publics comme une solution pour rompre avec la « multiplicité des organismes et des dispositifs », multiplicité qui constitue une « entrave à la modernisation du service rendu aux demandeurs d'emploi ». 357 La fusion permettra ainsi aux demandeurs d'emploi de réaliser lors d'un même entretien leur inscription et leur premier entretien de conseil. Ce registre de justification affirme implicitement que le chômage a des causes institutionnelles. Les raisons ayant amené à la mise en place des MDE rejoint également cette vision des causes institutionnelles du chômage. La complexité du système et le cloisonnement des administrations conduit les demandeurs d'emploi à multiplier leurs démarches et donc à s'éloigner de la reprise effective d'un emploi. La simplification du système doit ainsi conduire à réduire la période d'absence d'emploi pour chaque demandeur d'emploi et entraîner ainsi à 356 Allocution du Président de la République Nicolas Sarkozy le 2 octobre 2007 à Dijon. Table ronde sur la politique en faveur de la réinsertion par le travail au Conseil général de Côte d'Or : <http://discours.viepublique.fr/notices/077002974.html> [25/092008]. l'échelle nationale, une baisse du chômage. Au même titre que la mise en place du guichet unique, il est probable que la simplification du système réduise le temps de latence nécessaire à la rencontre entre l'offre et la demande d'emploi. Il est toutefois difficile d'imaginer que cette réponse institutionnelle puisse constituer une solution satisfaisante sur le long terme à la question du chômage de masse. Toujours dans ce souci de simplifier le paysage institutionnel, la loi portant création de Pôle Emploi évoque l'éventualité d'intégrer les Services d'Orientation Professionnelle (Sop) de l'Afpa à la nouvelle entité fusionnée358. L'Afpa assure aujourd'hui quatre grandes missions : l'accompagnement des mutations économiques et des transitions professionnelles ; l'ingénierie des dispositifs ; la formation des adultes (demandeurs d'emploi et salariés sur 265 sites de formation) et plus en amont l'aide à la construction d'un projet de formation (210 sites d'orientation). C'est dans le cadre de la convention tripartie de 1998 signée entre l'État, l'ANPE et l'Afpa que le service intégré d'appui au projet professionnel, autrement appelé S2 a été mis en place, prestation assurée par les psychologues du travail de l'Afpa. Depuis la signature de cette convention, le service d'orientation de l'Afpa ne s'adresse pas seulement aux candidats pour une formation dispensée par l'Afpa mais à tous les demandeurs d'emploi dont le besoin de formation a été identifié par l'ANPE. C'est cette prestation de l'Afpa qui est concernée par le projet de fusion avec Pôle Emploi, intégration qui sera finalement entérinée par la loi du 24 novembre 2009 relative à l'orientation et à la formation professionnelle tout au long de la vie359. C'est ainsi que soixante ans après la création de l'Afpa, le transfert de la fonction « orientation professionnelle » est organisé. Les psychologues du travail des différents Sop ont eu la possibilité de proposer leur candidature à Pôle Emploi pour poursuivre leur fonction d'orientation professionnelle ou d'intégrer une des entités de l'Afpa pour exercer d'autres fonctions que le S2360. Les salariés de l'Afpa transférés à Pôle Emploi constituent depuis le 1er avril 2010 des Équipes d'Orientation Spécialisées (Eos) en charge de 357 Serge Dassault, Sénat, 2008, op. cit. Loi n°2008-126 du 13 février 2008, op. cit., article 12, « Dans un délai de douze mois après la promulgation de la présente loi, le Gouvernement présente au Parlement un rapport sur les modalités du transfert éventuel à l'institution mentionnée à l'article L. 311-7 du code du travail des personnels de l'Association pour la formation professionnelle des adultes chargés de l'orientation professionnelle des demandeurs d'emploi. », p.9. 3.4.2 Une fusion qui entend mettre en place un traitement « plus équitable » des chômeurs
Le deuxième enjeu annoncé de la fusion est de mettre en place un « traitement plus équitable de tous les demandeurs d'emploi »361 en proposant une « gamme de prestations unifiées se substituant au régime complexe des aides actuelles () »362. La spécificité de la France par rapport à ses pays voisins est qu'elle a « calqué ses dispositifs d'accompagnement sur le statut indemnitaire des chômeurs () »363. Les dispositifs d'accompagnement dépendent ainsi de la filière d'indemnisation du demandeur d'emploi : Allocation de Retour à l'Emploi (ARE), géré par l'Unedic ; Allocation de Solidarité Spécifique (ASS) géré par l'État ; RMI, désormais Revenu de Solidarité Active (RSA) géré par les Conseils Généraux. À chacune de ces trois filières d'indemnisation sont rattachés des dispositifs spécifiques d'accompagnement des chômeurs. La fusion permettrait de réduire cette segmentation de l'offre en unifiant les prestations proposées par l'Unedic et l'État dans le cadre de l'ASS et marquerait ainsi une plus grande égalité de traitement entre les chômeurs. Analysée sous cet angle, la fusion ne porte donc pas tant sur le rapprochement du « couple indemnisation-placement, que sur la réunification des réseaux d'accompagnement des chômeurs relevant de ces deux institutions »364. En centrant les dispositifs d'accompagnement sur les besoins des chômeurs plus que sur leur statut indemnitaire, la fusion casserait la logique d'un système à trois vitesses. Reste à voir comment va concrètement s'organiser l'offre de service de la nouvelle entité fusionnée et si un déplacement des segmentations ne sera pas organisé sous d'autres modalités365. Autre point également en suspend : c'est la question de la refondation des dispositifs mis en place pour les bénéficiaires du RSA, la fusion ne touchant pas directement ce « régime indemnitaire » et les mesures emploi qui lui sont associées. stagiaires pour les centres de formation de l'Afpa, de la réalisation de bilans de compétences pour les demandeurs d'emploi et salariés (bilan de compétences et bilan de compétences mi-carrière).
361 Allocution du Président de la République Nicolas Sarkozy le 2 octobre 2007, à Dijon. Table ronde sur la politique en faveur de la réinsertion par le travail au Conseil général de Côte d'Or. 362 Serge Dassault, Sénat, 2008, op. cit., p.16. 363 Carole Tuchszirer, « France : un dispositif indemnitaire devenu insensible aux évolutions du marché du travail. » Chronique Internationale de l'Ires, n°115, novembre 2008, p.107. 364 Ibid., p.107. 365 Ibid., p.107. 150
3.4.3 Une incitation à la (re)prise d'emploi : une priorité forte des récentes réformes
L'autre lecture de la fusion proposée par Carole Tuchszirer est celle de la « volonté actuelle des pouvoirs publics de durcir les conditions de maintien des chômeurs dans le régime d'assurance chômage »366. En d'autres termes, l'accès à l'emploi constitue une priorité réaffirmée des réformes actuelles ; accès à l'emploi qui doit par ailleurs constituer la préoccupation première des chômeurs. Pour cela, la fusion prévoit la généralisation du suivi individualisé des chômeurs367 avec un nombre croissant d'agents au contact direct des demandeurs d'emploi : 60 000 selon le rapporteur de la mission « Travail et Emploi »368. L'objectif visé à terme est qu'un agent de Pôle Emploi ait sous sa responsabilité le suivi et l'accompagnement de trente demandeurs d'emploi. Quinze jours maximum doivent s'écouler entre l'inscription à Pôle Emploi et le rendez-vous avec le « référent unique ». À compter du quatrième mois d'absence d'emploi, chaque demandeur d'emploi convoqué tous les mois par Pôle Emploi pour faire un entretien de suivi auprès de son conseiller « référent ». Trois « parcours personnalisés » ont par ailleurs été mis en place pour « accélérer le retour à l'emploi » des chômeurs en leur proposant une « personnalisation accrue () des prestations, des services et des conseils les plus adaptés () »369. Lors de l'inscription, le « profilage » permet de mesurer la distance à l'emploi du chômeur, selon sa situation, un dispositif spécifique d'accompagnement est alors déclenché. Le « parcours appui » pour les demandeurs d'emploi considérés comme les moins éloignés du marché du travail ; le « parcours accompagnement » pour les bénéficiaires du RSA370 ou plus largement les personnes dont le 366 Ibid., p.107. L'entretien de suivi mensuel personnalisé est effectué par l'ANPE pour les nouveaux inscrits depuis le 1er janvier 2006 ainsi que pour les seniors. Il a été élargi aux moins de 26 ans depuis 2009 et doit concerner à terme la plus large part possible des demandeurs d'emploi. 368 Serge Dassault, Sénat, 2008, op. cit., p.14. 369 Conseil de l'instance nationale provisoire, mardi 9 septembre 2008, point n°3, propositions relatives à l'offre de services du nouvel opérateur, p.5. 370 Institué le 1er décembre 2008, puis généralisé à compter du 1er juin 2009, le RSA organise la fusion de deux minima sociaux (l'Allocation de Parents Isolés (API) et le RMI) ainsi que les divers mécanismes d'intéressement à la reprise d'un emploi. Le principe d'activation tel que le définit Jean-Claude Barbier établit un lien entre la protection sociale et l'accès au marché du travail par « l'existence d'une préférence systématique accordée à l'engagement des bénéficiaires sur le marché du travail () voire d'une condition plus ou moins contraignante d'activité introduite par l'élig
aux prestations ». Jean-Claude Barbier, « Peut-on parler d'activation de la protection sociale en Europe? », Revue Française de Sociologie, n°43-2, 2002, p.308
. La mise en place du RSA a opéré un véritable glissement des politiques d'insertion vers les politiques d'emploi. L'objectif d'insertion se retrouve réduit à l'accès à l'emploi, l'attribution des revenus d'existence étant conditionnée à la recherche d'emploi du bénéficiaire (et même élargie à son conjoint). Cette disposition du RSA va dans le sens d'une contractualisation grandissante du social comme « modèle de solidarité contractuelle ». Michel Lallement, « Transformation des relations du travail et nouvelles formes d'action politique
»,
2006
, op
.
cit
.
, p
.
110
. Reste toutefois à préciser que le lien entre l'attribution des aides sociales et l'accès à l'emploi n'est pas nouveau. Dans l'histoire récente, l'adoption du Contrat d'Insertion – Revenu Minimum d'Activité (CI-RMA) en est une très bonne illustration. En mettant l'accent sur l'insertion professionnelle, cette disposition de la loi contient un ciblage laisse craindre des difficultés dans le retour ou l'accès à l'emploi et un troisième parcours dédié aux créateurs d'entreprise. Ces parcours personnalisés doivent permettre une « prise en charge plus rapide () et une meilleure adaptation à l'évolution de la situation des demandeurs d'emploi au cours de leur recherche d'emploi »371. La définition des « droits et devoirs des demandeurs d'emploi » a fait l'objet de la loi du 1er août 2008372. Cette loi constitue un des éléments centraux des réformes en cours, elle vise à « contrôler l'effectivité de la recherche d'emploi par l'obligation faite aux chômeurs d'accepter sous certaines conditions les offres d'emplois proposées »373. Cette loi réaffirme l'obligation faite aux chômeurs « d'accomplir des actes positifs et répétés de recherche d'emploi »374. Elle introduit par ailleurs un certain nombre de critères définissant ce qu'est une « offre raisonnable d'emploi » ; critères évoluant avec le temps et qui se durcissent avec l'ancienneté d'inscription à Pôle Emploi. Plus l'inscription au chômage se prolonge et plus le chômeur est tenu d'accepter un emploi s'éloignant des critères initialement définis dans le cadre de son projet personnalisé d'accès à l'emploi. L'offre raisonnable d'emploi s'articule autour de deux critères majeurs que sont les c individuelles du demandeur d'emploi (qualifications, compétences et connaissances acquises lors des expériences professionnelles précédentes, de sa situation personnelle et familiale) et la situation du marché du travail local. « Lorsque le demandeur d'emploi est inscrit sur la liste des demandeurs d'emploi depuis plus de trois mois, est considérée comme raisonnable l'offre d'un emploi compatible avec ses qualifications et compétences professionnelles et rémunéré à au moins 95% du salaire antérieurement perçu. Ce taux est porté à 85 % après six mois d'inscription. Après un an d'inscription, est considérée comme raisonnable l'offre d'un emploi compatible avec les qualifications et les compétences professionnelles du demandeur d'emploi et rémunéré au moins à hauteur du revenu de remplacement prévu à l'article L. 5421-1. 152 durée maximale d'une heure ou une distance à parcourir d'au plus trente kilomètres »375. En cas de deux refus d'offres d'emploi répondant aux critères préalablement définis, tout demandeur d'emploi se verra radié ou suspendre ses indemnisations. Finalement, plus l'absence d'emploi est ancienne et plus la demande de mobilité professionnelle et géographique devient forte pour les demandeurs d'emploi. Il faut pour finir sur ce point, préciser que les partenaires sociaux étaient hostiles à l'adoption de cette loi qui risque selon eux de déstabiliser et dégrader les normes d'emploi régissant le marché du travail. En dépit de ces oppositions, l'État a voté la mise en place de cette loi, à la veille de la renégociation de l'assurance-chômage376, traduisant ainsi sa volonté de se positionner comme le grand ordonnateur en matière d'emploi. Cette affirmation du rôle central de l'État est par ailleurs clairement affichée par le secrétaire d'État à l'emploi qui fait part du souhait d'une « implication plus forte de la tutelle de l'État dans la gouvernance du futur opérateur et l'élaboration d'un cahier des charges assorti de clauses d'évaluation dans la future convention tripartite État-Unedic-opérateur public de l'emploi »377. 3.4.4 La réalisation d'économies
La fusion doit pour finir permettre de réaliser des économies par « l'émergence d'économies d'échelle dans la gestion du nouvel opérateur » ; la « rationalisation du parc immobilier »378. Pour certains observateurs, cette fusion évite à l'État de recruter des conseillers placement pour réaliser le suivi individualisé des demandeurs d'emploi. Mais dans l'attente de la réalisation de ces économies, les frais occasionnés par la mise en place du nouvel opérateur ne sont pas sans inquiéter les pouvoirs publics. Ces frais sont liés au financement des différents cabinets d'études sollicités pour la mise en place de Pôle Emploi, la création de la nouvelle identité visuelle. Ils s'expliquent par ailleurs par l'alignement des salaires des ex-agents ANPE sur ceux du réseau des Assedic, frais estimés à 350 millions d'euros pour les seules dépenses en ressources humaines379. Plus fondamentalement, le système d'assurance chômage a été conçu à la fin des années 1950 pour faire face à des indemnisations de courte durée et pour une portion congrue de la population active. Depuis la création de l'Unedic jusqu'aux années 1980, les critères 375 Ibid., article 1, L. 5411-6-3. La convention d'assurance-chômage a été signée le 19 février 2009. 377 Serge Dassault, Sénat, 2008, op. cit., p.16. 378 Ibid., p.9. 379 Ibid., p.9. 376 153 d'éligibilité à l'assurance chômage se sont élargis pour assurer une protection plus large et plus solide des chômeurs. À partir des années 1980, la progression du chômage n'a pas conduit à élargir les critères d'éligibilité, ils se sont au contraire durcis, durcissement qui n'a cessé de se confirmer depuis lors. Si bien que sur la longue période, les conditions d'indemnisation des chômeurs se rétrécissent lorsque le chômage progresse, conférant ainsi à l'assurance-chômage un caractère « pro cyclique ». Cette situation s'explique par la volonté des partenaires sociaux de maintenir l'équilibre financier de l'Unedic, très sensible aux fluctuations conjoncturelles de l'emploi380. Le niveau des cotisations d'une part et des indemnités d'autre part étant identique quelque soit la situation du marché du travail, l'effort d'indemnisation est moins important en période de hausse du chômage et plus faible en période de baisse du chômage. Ce mécanisme explique la contrainte forte qui pèse également sur l'Unedic pour que les chômeurs indemnisés retrouvent rapidement un emploi. 3.5 L'organisation de Pôle Emploi ou la réaffirmation du rôle central de l'État en matière d'emploi 3.5.1 La région comme lieu de synthèse entre les politiques nationales et les initiatives locales
La loi portant création de la nouvelle entité fusionnée, Pôle Emploi, instaure la mise en place du Conseil National de l'Emploi, instance se substituant au Comité Supérieur de l'Emploi. Le Conseil National de l'Emploi est placé sous la responsabilité du Ministre de l'Économie, de l'Industrie et de l'Emploi, alors que le Comité Supérieur de l'Emploi était placé sous la responsabilité d'une personnalité nommée par le Président de la République. Certains observateurs y voient le signe de la mainmise de l'État en matière d'emploi. Cette instance est composée des partenaires sociaux, des représentants de l'État, des représentants des collectivités locales, et de personnalités qualifiées. C'est ce conseil qui chapote Pôle Emploi et l'Unedic en assurant le pilotage stratégique des politiques de l'emploi, de la cohérence des actions menées par les différents opérateurs du marché du travail ainsi que l'évaluation des actions engagées par ces derniers. Dans cette perspective, cette instance émet un avis sur les 380 Mireille Elbaum, Gérard Cornilleau, « Indemnisation du chômage. Une occasion manquée face à la crise? », Lettre de l'OFCE, n°307, lundi 2 février 2009, p.2-3. 154 projets de loi, d'ordonnance et de décret relatifs à l'emploi ; sur les mesures contenues dans la convention d'assurance chômage ainsi que sur les systèmes d'information du SPE381. La direction générale de Pôle Emploi a en charge la définition et le pilotage des activités opérationnelles. Outre la détermination de la stratégie nationale, c'est cette direction qui assure deux missions essentielles dans les premiers temps de création de Pôle Emploi : la mise en place des sites mixtes (qui devaient être opérationnels d'ici la fin de l'année 2009) et la formation des agents au métier du placement pour les ex-salariés des Assedic et à l'indemnisation pour les ex-salariés de l'ANPE (l'objectif étant de former 30 000 agents à partir de novembre 2008 et 45 000 pour l'année 2009). Les directions régionales sont dotées d'un Conseil Régional de l'Emploi, présidé par le Préfet de région. Ces directions régionales sont composées de représentants des employeurs et des salariés, du directeur régional de Pôle Emploi, du conseil régional et des principales collectivités territoriales intéressées, des administrations intéressées et des universités, des représentants d'organisations participant au SPE local, notamment des MDE. Ces directions régionales assurent la mise en oeuvre de la politique nationale de l'emploi à l'échelle des régions. Dans cette perspective, une convention est signée chaque année au nom de l'État pour définir les objectifs locaux de la politique de l'emploi. Cette convention précise notamment : « les personnes devant bénéficier prioritairement des interventions de Pôle Emploi ; les objectifs d'amélioration des services rendus aux demandeurs d'emploi et aux entreprises () ; l'évolution de l'organisation territoriale de l'institution ; les conditions de recours aux organismes privés exerçant une activité de placement ; les conditions dans lesquelles les actions de l'institution sont évaluées, à partir d'indicateurs de performance qu'elle définit »382. Ces directions régionales sont en constituées d'Instances Paritaires Régionales (IPR) chargées de la bonne application de l'accord d'assurance chômage à l'échelle du territoire. Elles sont par ailleurs compétentes pour examiner certains cas particuliers de demandes d'allocations. La région est ici clairement identifiée comme le lieu d'articulation privilégié entre les mesures nationales et leur mise en oeuvre locale. Le choix de cet échelon territorial rompt avec la logique territoriale qui s'était dessinée en 2005 avec le plan de cohésion sociale qui impliquait fortement les communes pour « renouveler la politique de l'emploi »383. Plusieurs hypothèses peuvent être avancées pour expliquer ce « revirement » territorial. Tout d'abord la politique 381 Loi n°2008-126 du 13 février 2008 op. cit., article 1. Ibid. de réforme annoncé des collectivités territoriales. Là encore le projet n'est pas nouveau, il s'oriente vers une disparition d'un échelon territorial pour « simplifier » et « clarifier » le paysage institutionnel en supprimant « les structures devenues obsolètes ou redondantes » et en achevant les « regroupements nécessaires trop longtemps différés »384. Si les débats antérieurs portaient sur la suppression de l'échelon départemental, le présent projet vise plutôt à opérer le rapprochement de la région et des départements à travers l'élection d'un élu commun qui « développera à la fois une vision de proximité du fait de son ancrage territorial et une vision stratégique en raison des missions exercées par la région »385. Sur ce point spécifique, le projet de loi souhaite « réorganiser les collectivités autour de deux pôles, un pôle départements-région et un pôle communes-intercommunalité »386. La troisième voie d'explication possible réside dans l'affirmation de la dimension territoriale des politiques au niveau de la Stratégie Européenne pour l'Emploi. « Le développement de la logique de subsidiarité portée par l'Union Européenne justifie une construction des politiques publiques « au plus près » des besoins des citoyens ; principe de subsidiarité qui s'accompagne d'une « exigence de connaissance plus en plus fine des problèmes sociaux »387. La région y occupe une place centrale puisque c'est ce niveau territorial qui apparaît comme pertinent pour constituer un « lieu de synthèse », d'articulation entre le centre et le local en permettant de « dégager de nouvelles cohérences en matière de développement économique »388. La région apparaît comme un lieu de « synthèse inter-sectoriel brisant à la fois les cloisonnements organisationnels et territoriaux pour dégager de nouvelles cohérences » 389 sur le plan de l'emploi et de la formation. 156 « d'arbitrage qui réunisse et synthétise toutes les demandes exprimées localement, afin de transformer la relation au centre »390. 3.5.2 La place des MDE dans le paysage de l'emploi : un rôle finalement mineur quant à l'élaboration des politiques locales
La loi du 13 février 2008 relative à la réforme du SPE prévoit une représentation nationale et régionale des acteurs locaux de l'emploi au sein du Conseil National de l'Emploi et des Conseils Régionaux de l'Emploi : « Le Conseil national de l'emploi est présidé par le Ministre chargé de l'emploi et comprend des représentants des organisations professionnelles d'employeurs et de travailleurs, des collectivités territoriales, des maisons de l'emploi, des administrations intéressées et des principaux opérateurs du service public de l'emploi, notamment l'institution publique mentionnée à l'article L. 311-7 (ANPE), l'organisme chargé de la gestion de l'assurance chômage mentionné à l'article L. 351-21 (Assedic) et l'Association nationale pour la formation professionnelle des adultes, et des personnalités qualifiées ».391 Cette représentation nationale et régionale des MDE était souhaitée par le député Jean-Paul Anciaux pour que les MDE puissent être associées à la définition des politiques publiques en matière d'emploi : « La création d'un opérateur unique national et le renforcement du pilotage stratégique des politiques de l'emploi au niveau régional doit s'accompagner de la mise en place d'un cadre de concertation souple et efficace au niveau local. Pour cela, les MDE doivent devenir les interlocuteurs des Conseils Régionaux de l'Emploi en s'appuyant sur leur capacité de gouvernance des politiques territoriales au niveau des bassins d'emploi. À condition de faire de ces structures de pilotage de véritables organes de décision, définissant des priorités communes et répartissant leurs moyens en fonction des objectifs à atteindre ».392 À ' nationale comme à l'échelle régionale, c'est un représentant des MDE qui est respectivement nommé par le Ministre de l'Emploi et par le Préfet de région. Concernant les représentants nationaux des collectivités territoriales, trois d'entre eux seront nommés par le Ministre de l'Emploi sur proposition des présidents de l'Association des maires de France, de l'Assemblée des départements de France et de l'Association des régions de France. Au niveau régional, c'est un représentant des Missions 390 Ibid., p.49. Dans son ouvrage, Pierre Grémion montre comment la réforme de 1964 organisant la régionalisation a échoué, sous la pression des élus locaux. Parmi les raisons de cet échec, il montre que la régionalisation « court-circuitait » les possibilités de négociation des élus locaux directement avec le centre. 157 Locales qui sera nommé par le préfet de région393. Si le Conseil Régional de l'Emploi est une instance consultative, le Conseil National de l'Emploi en revanche « concourt à la définition des orientations stratégiques des politiques de l'emploi. Il veille à la mise en cohérence des actions des différentes institutions et organismes () »394 précités composant le Conseil National de l'Emploi. Le positionnement des MDE s'avère finalement nettement moins ambitieux que celui qui leur était initialement dévolu dans le premier cahier des charges de 2005 (voir annexe n°7 présentant la place des MDE dans la loi de réforme du SPE). Alors que les élus locaux avaient été désignés comme les chefs de file de la gouvernance locale du marché du travail en 2005, ils se retrouvent, dès 2009, relégués au second plan. L'État a fait machine arrière et s'est repositionné au coeur des décisions à prendre (soit directement, soit par l'intermédiaire de Pôle Emploi). Si les collectivités territoriales sont toujours fortement sollicitées pour la proposition d'initiatives locales, elles n'ont plus les marges de manoeuvre suffisantes pour acter la mise en oeuvre d'un certain nombre d'actions ; actions qui doivent être validées par l'État et Pôle Emploi. 392 Jean-Paul Anciaux, 2008, op. cit., p.31. Décret n° 2008-1010 du 29 septembre 2008 relatif à l'organisation du service public de l'emploi, JO n°228 du 30 septembre 2008, articles R. 5112-1 et R. 5112-2. 394 Loi n° 2008-126 du 13 février 2008, op. cit. 393 158
En l'espace de cinq années, le champ de l'emploi a été radicalement transformé. La mise en place des MDE dans le cadre du Plan de Cohésion Sociale de 2005 positionne les élus locaux comme les chefs de file de la gouvernance locale du marché du travail. De cette façon, le dispositif des MDE s'inscrit dans la continuité du mouvement de territorialisation amorcé dans les années 1980. En aucun cas il ne s'agit d'un aboutissement de la logique de décentralisation puisque l'État n'a pas transféré les compétences emploi aux collectivités locales et a conservé cette compétence. De ce point de vue, la position de l'État est assez ambivalente puisqu'elle demande aux élus locaux d'orchestrer les actions des acteurs locaux pour la définition d'une stratégie locale dans le champ de l'emploi sans leur reconnaître de compétence en la matière. Un revirement radical de situation est amorcé en février 2008 avec la loi organisant la fusion du réseau des Assedic et de l'ANPE, puis confirmé en décembre 2009 avec le nouveau cahier des charges des MDE. L'échelon régional est ainsi définit comme un espace d'articulation (entre des politiques nationales descendantes et des politiques locales ascendantes) et d'arbitrage dans la mesure où la mise en oeuvre des actions locales est soumise à l'accord de Pôle Emploi et des membres du Conseil Régional de l'Emploi. Le rôle des MDE apparaît en ce sens bien moins ambitieux que celui qui leur étai dévolu en 2005. Les dernières orientations prises par les pouvoirs publics vont dans le sens d'une reprise en main ferme de l'État en matière d'emploi. Bien que l'emploi reste une compétence nationale, une convergence des politiques d'emploi s'opère à l'échelle de l'Union Européenne. Le rapprochement des fonctions d'indemnisation et de placement se généralise, ainsi que la mise en place de guichets uniques. Concernant les logiques d'accompagnement des chômeurs, la logique de la contractualisation entre le SPE et les chômeurs tend également à se banaliser. De même, le mouvement de décentralisation du SPE se développe, il acquière ainsi une plus grande autonomie vis-à-vis de chacun des États membres. DEUXIÈME PARTIE : L'INFLEXION DES MAISONS DE L'EMPLOI EN FAVEUR DU DEVELOPPEMENT LOCAL DE L'EMPLOI 161
Les actions standardisées et descendantes de l'État n'ont pas réussies à venir à bout du chômage, et les collectivités territoriales ont ainsi été invitées à compléter les mesures nationales par des initiatives locales censées être plus adaptées aux réalités locales parce que construites sur la base d'une connaissance fine du territoire. Dans la continuité de cette logique, le dispositif des MDE répond à un cahier des charges extrêmement souple quant au territoire d'intervention des structures, à leur architecture territoriale ou encore aux acteurs impliqués dans le dispositif. Cette absence de cadrage strict a été voulue afin que les plans d'action collent au plus près des situations locales. L'objet de cette partie est de comprendre comment les acteurs locaux se saisissent du dispositif des MDE. Comment les structures se mettent en place? À l'initiative de qui? Quelles sont les actions mises en oeuvre par les structures? Pour répondre à quels besoins? Quelles sont précisément les actions mises en place par les MDE? Comment et par qui ces actions sont-elles décidées? Un des objectifs des MDE est de « compléter » les actions du SPE et de ses partenaires en fonction des besoins du territoire. Sur la base d'un diagnostic partagé, les acteurs locaux de l'emploi peuvent ainsi « conduire un plan d'action complémentaire, expérimental et innovant » pour permettre une harmonisation de « l'offre institutionnelle » jugée « trop sectorielle »395. Les éléments recueillis auprès des acteurs locaux mettent en évidence une forte inflexion des MDE en faveur du développement local de l'emploi (voir chapitre 6). Ils ont tous pour volonté de saisir ou de construire des opportunités aptes à créer des emplois sur leur territoire. Cette seconde partie de la thèse s'attache donc à comprendre comment les acteurs locaux sont amenés à centrer leurs efforts sur le développement local. Du point de vue de ces acteurs, de tels efforts doivent permettre d'assurer l'attractivité économique du territoire tout en contribuant à faire diminuer le chômage.
| 22,366
|
dumas-03579629-AMIEUX%20Guilhem%20Louis%20Fran%C3%A7ois.txt_1
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,022
|
Le dopage et les compléments alimentaires dans le esport. Sciences du Vivant [q-bio]. 2021. ⟨dumas-03579629⟩
|
None
|
French
|
Spoken
| 7,621
| 12,024
|
Le dopage et les compléments alimentaires dans le esport Guilhem Amieux
a multi-disciplinary open access for the and dissemination of scientific research documents, whether the are or not. The documents may from and in France or or or centers. L’archive ouverte pluridisciplinaire HAL, destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et français ou trangers
. UNIVERSITÉ CLERMONT AUVERGNE UFR DE PHARMACIE Année : 2021 N° THÈSE D'EXERCICE pour le DIPLÔME D’ÉTAT DE DOCTEUR EN PHARMACIE Présentée et soutenue publiquement le 29 octobre 2021 par Guilhem Louis François AMIEUX LE DOPAGE ET LES COMPLEMENTS ALIMENTAIRES DANS LE ESPORT. Directeur de thèse : M.
Eric BEYSSAC
Jury
Président : M. Eric BEYSSAC Professeur, UFR Pharmacie de Clermont-Ferrand Membres : Mme. Chantal SAVANOVITCH Maître de conférences, UFR Pharmacie de Clermont-Ferrand M. Cyrille JEUNE Chief Operating Officer, Nexbiome Therapeutics UNIVERSITÉ CLERMONT AUVER
G
NE UFR
DE
PHARMACIE
Année : 2021 N° THÈSE D'EXERCICE pour le DIPLÔME D’ÉTAT DE DOCTEUR EN PHARMACIE Présentée et soutenue publiquement le 29 octobre 2021 par Guilhem Louis François AMIEUX LE DOPAGE ET LES COMPLEMENTS ALIMENTAIRES DANS LE ESPORT. Directeur de thèse : M. Eric BEYSSAC Jury Président : M. Eric BEYSSAC Professeur, UFR Pharmacie de Clermont-Ferrand Membres : Mme. Chantal SAVANOVITCH Maître de conférences, UFR Pharmacie de Clermont-Ferrand M. Cyrille JEUNE Chief Operating Officer, Nexbiome Therapeutics
Remerciements
Je tiens à remercier mes parents qui m’ont accompagné et soutenu tout au long des mes études de pharmacie, me permettant aujourd’hui de présenter ce travail. Je souhaite aussi remercier M. Paul-Emeric Saunier et M. Clément Avesque, nos nombreuses parties de jeux vidéo m’ont permis de m’intéresser au ESport et aux dérives qui en découlent. Je remercie M. Cyrille Jeune de m’avoir aidé à comprendre certains aspects de la règlementation des compléments alimentaires. Merci aussi à Mme Clémence Servier, qui a relu de nombreuses fois chaque passage de cette thèse. Enfin, je tiens à remercier mon président de jury, M. Eric Beyssac, pour m’avoir permis de traiter dans cette thèse un sujet méconnu mais qui me tient à cœur.
Remerciements................................................................................................................................
2 Table des tableaux et figures........................................................................................................... 5
Table
des
annexes
............................
................................................
................
................................ 6 Abréviations et vocabulaire spécifique............................................................................................ 7 Introduction...................................................................................................................................... 9
1. Comprendre les ESports......................................................................................................... 11 1.1. 2. Quels sont les principales disciplines en ESport?........................................................... 11 1.1.1. Les FPS « classiques »............................................................................................... 11 1.1.2. Les BattleRoyal......................................................................................................... 12 1.1.3. Les MOBA*............................................................................................................... 14 1.2. Répercussions grand public de l’ESport.......................................................................... 15 1.3. Ligues et compétitions..................................... ................................................................ 17 1.3.1. Ligues officielles et tournois présentiels.................................................................. 17 1.3.2. Tournois en ligne...................................................................................................... 18
Dopage................................................................................................................................... 20
2.1. Le dopage en général et son impact sur le (E)Sport........................................................ 20 2.2. L’affaire de l’Adderall....................................................................................................... 22 2.3. Les substances potentiellement dopantes en ESport..................................................... 23 2.3.1. Les Bétabloquants.................................................................................................... 24 2.3.2. L’Amphétamine & les amphétaminiques................................................................. 26 2.3.3. Les glucocorticoïdes................................................................................................. 28 2.3.4. 3. Compléments alimentaires.................................................................................................... 33
3.1. Définition......................................................................................................................... 33 3.2. Règlementation européenne.......................................................................................... 34 3.2.1. Allégations des compléments alimentaires............................................................. 36 3.2.2. La nutrivigilance en France....................................................................................... 37 3.3. Aux USA........................................................................................................................... 39 3.4. Analyse critique des principaux compléments alimentaires gaming.............................. 40 3.4.1. LevelUp (78) – le complément alimentaire européen............................................. 41 3.4.2. Gfuel – le complément alimentaire américain (83)................................................. 46 3.4.3. Rez (85)– le produit français au statut flou.............................................................. 47 3.5. Comparatif des produits et analyse critique................................................................... 48 Conclusions..................................................................................................................................... 51 Bibliographie.................................................................................................................................. 53 Annexes.......................................................................................................................................... 61 ment ............ ................................ ................ et figures
Figure 1- Une photo de l'ESL Cologne avant la finale avec 50 000 spectateurs sur CS:GO* (3).... 10 Figure 2 - Extrait de CS:GO pendant l'ESL (6)................................................................................ 12 Figure 3 - Extrait de Fortnite pendant la WORLD CUP SOLO (98), a droite on peut observer la carte avec en violet la zone qui n’est plus accessible aux joueurs, et un cercle qui représente la prochaine zone sûre....................................................................................................................... 13 Figure 4 - Représentation schématique d'un exemple de carte de MOBA : en rouge et en bleu, la structure principale de chaque base et les tours de défense des deux équipes ; en jaune, les trois voies ; en vert, la jungle (7)............................................................................................................ 14 Figure 5 - Extrait de League of Legends pendant les Worlds 2021 (8).......................................... 15 Figure 6 - Le nombre de "viewers" de Fortnite sur Twitch (9)....................................................... 16 Figure 7- Le « stream » Twitch du joueur français CHOW1 aux WZWS 2021 (15)........................ 19 Figure 8 - Les premiers résultats d'une recherche Google pour des compléments alimentaires "gaming"......................................................................................................................................... 33 Figure 9 - Le lien d'accès à la base de données des compléments alimentaires autorisée en France qui ne fonctionne pas (99)............................................................................................................. 35 Figure 10 - les étapes de la déclaration de nutrivigilance.............................................................. 37 Figure 11 - Le volet "produit alimentaire concerné" de la déclaration de nutrivigilance (71)...... 38 Figure 12 - L'équipe de ESport FAZE sponsorisée par GFuel (74)................ .................. 40 Figure 14 - Les "Boosters" LevelUp spécial Halloween (78)........................................................... 42 Figure 15 - Tableau extrait de l'arrêt du 26/09/2016 (80)............................................................. 43 Figure 16- Le streameur Physikk faisant la promotion de LevelUp pendant un live (76).............. 44 Figure 17 - L'onglet "Bio" de la page de Stream de Physikk (76)...................................................
45 des annexes Annexe 1 - Représentation graphique des joueurs et spectateurs de compétitions ESports (90) 61 Annexe 2 - Evolution de la pureté de la cocaïne saisie en France (47).......................................... 62 Annexe 3 - Extrait des « Recommandations sanitaires » émises par la DGCCRF, Version 2 (janvier 2019)............................................................................................................................................... 63 Annexe 4 - Extrait de la page Rezenergydrink............................................................................... Activité sympathomimétique intrinsèque ou ASI = stimulation partielle des recepteurs β : β2 évite la vasoconstriction et bronchoconstriction, effet bradycardisant mais moins prononcé, effets antiathérogènes, effet dépresseur moins important. BattleRoyal (BR) : Nom issu du film éponyme, qualifiant un combat en mêlée où les adversaires s'affrontent tous en même temps et dont il ne peut rester, selon le principe du « dernier homme debout », qu'un seul vainqueur. (1) CS:GO : « Counter Strike : Global Offensive », il s’agit d’un FPS issu de la licence Counter Strike, il succède à Counter Strike Source et Counter Strike Online. DPS : « Damage per second », c’est le nom donné au joueur dont l’objectif est de faire un maximum de dégâts, le DPS et le Tank ont des rôles complémentaires et doivent synchroniser leurs actions. ESIC : ESport Integrity Coalition, C’est une structure promouvant les bonnes pratiques dans le ESport et qui propose des lignes de conduites contre le dopage ainsi qu’une liste des substances à proscrire. FPS : « First Person Shooter », jeu à la première personne, le joueur voit à travers les yeux de son personnage. LAN : « Local Area Network », c’est un réseau local, ici dédié au jeu, le but est d’affronter d’autres joueurs sans passer par internet. MOBA : “Multiplayer Online Battle Arena”, c’est type de jeu mêlant stratégie et jeu de rôle. PvP ou JcJ : Player versus Player ou Joueur contre Joueur, ce mode de jeu consiste en l’affrontement de joueurs humains, ce mode est en opposition avec le PvE (Player versus Engine). Streaming : Technique de diffusion et de lecture en ligne et en continu de données multimédias, qui évite le téléchargement des données et permet la diffusion en direct (ou en léger différé). (2) Tank : le joueur « tank » est le joueur qui va encaisser les dégâts à la place de ses coéquipiers le DPS et le Tank ont des rôles complémentaires et doivent synchroniser leurs actions. TPS : « « Third Person Shooter », jeu à la troisième personne, Le joueur voit son personnage de dos (e.g. : Fortnite). Nous allons ici nous intéresser aux jeux-vidéo impliquant des compétitions ESport pour observer quelles sont les dérives de dopage, les compléments alimentaires issus de ces compétitions et leurs impacts sur le grand public.
Historique
Avec l’augmentation du nombre d’ordinateurs par foyer depuis les années 2000 et la démocratisation progressive des accès internet, les jeux vidéo en ligne se sont développés avec des titres aujourd’hui culte dans le domaine tel que Counter Strike. Celui-ci a beaucoup contribué au développement du ESport puisqu’il est aujourd’hui encore joué dans plusieurs compétitions. Qu’est-ce que le « ESport »? Si dans l’imaginaire collectif les compétitions sportives sont bien définies, c’est en grande partie dû à leur organisation en Fédération (Fédération Française de Football, Fédération Internationale de Motocyclisme...). Cette organisation est plus ou moins récente et développée en fonction de la popularité des sports et de la professionnalisation de ceux-ci. Le ESport a connu un démarrage plutôt lent dans les années 90, il s’est beaucoup popularisé depuis, notamment avec des évènements comme la ESport World Convention apparue en 2003 (e.g. : la ESport World Cup ou ESWC 2018 a eu lieu en partie à Metz devant 17 500 spectateurs présents et 1 million de spectateurs en ligne). Les compétitions ESport consistent traditionnellement en un duel entre deux équipes sur un jeu et/ou un mode de jeu défini à l’avance en LAN (c’est-à-dire sur un réseau privé où seules ces deux équipes sont connectées). Cette forme de duel peut rappeler des matchs de rugby ou de football dans leur déroulement et peuvent se dérouler dans des stades avec une diffusion sur écran géant (Figure 1).
Figure 1- Une photo de l'ESL Cologne avant la finale avec 50 000 spectateurs sur CS:GO* (3)
Plus récemment, la sortie en 2017 du jeu Fortnite a lancé une mode des jeux en Battle Royal avec des titres comme Apex Legend (2019), Call of Duty : Warzone (2020). Ces jeux massivement multi joueurs ont créé une nouvelle dynamique dans l’ESport et ont attiré de nombreux joueurs. L’évènement ayant rassemblé le plus de joueur en même temps sur Fortnite a atteint 12 millions de joueurs en simultané (4). A titre de comparaison la Fédération Internationale de Rugby compte 3.5 millions de licenciés dans le monde (5). La popularité et les gains importants des compétitions va aussi avec un versant plus sombre : le dopage. Nous allons donc d’abord nous intéresser au ESport pour en comprendre les enjeux et les mécaniques, puis au dopage et enfin aux compléments alimentaires grand public vendus pour améliorer les performances des joueurs.
1. Comprendre les ESports 1.1. Quels sont les principales disciplines en ESport? De la même manière qu’il existe différents sports il existe différents ESports et les compétences nécessaires dans chaque discipline ne sont pas les mêmes. Il n’est pas possible de voir tous les types de jeux qui impliquent du ESport, nous allons donc nous concentrer sur les 3 principaux types de jeux qui sont présents en ESport ainsi que quelques titres emblématiques de ces types. Les compétitions de ESport sont devenues de plus en plus exigeantes en termes de niveau individuel et d’équipe. Un bon joueur seul ne suffit pas à gagner une compétition, une équipe sans capitaine compétent ne sera pas compétitive.
1.1.1. Les FPS « classiques »
Les FPS* sont, comme leur nom l’indique, des jeux à la première personne dont les titres les plus connus et joués en ESport sont CS:GO* et Call of Duty. NB : il faut entendre par « classique » le fait qu’a l’origine il n’y avait pas de FPS en BattleRoyal, il existe maintenant des exceptions (Call of Duty – Warzone, PUBG, Apex Legends). Les compétitions se déroulent généralement en réseau local (LAN*), souvent devant du public et en même temps retransmises en direct en ligne. Il est à noter que depuis la pandémie de COVID19 certaines ont lieu uniquement en ligne comme la Call of Duty League 2021. Le déroulement des compétitions est assez simple, des équipes s’affrontent deux par deux sur un mode de jeu défini à l’avance, chaque victoire permet d’accéder à la phase suivante jusqu’à la finale. On pourrait comparer le fonctionnement de ces compétitions à une coupe du monde de football ou de rugby. Ce sont des jeux où les réflexes et le sang-froid sont importants : il faut être capable de rester extrêmement concentré et réactif. De plus la communication dans l’équipe est importante, savoir où et combien de joueurs adverses se trouvent sur la carte permet d’avoir un avantage important. La capacité de viser vite et précisément peut faire la différence. Dans les compétitions de joueurs professionnels il est déjà arrivé qu’un joueur seul renverse, contre toute attente, l’équipe adverse. On comprend qu’un joueur qui perdrait son sang-froid risquerait de rater ses tirs et donc de perdre face à un adversaire plus concentré.
Figure 2 - Extrait de CS:GO pendant l'ESL (6) 1.1.2.
Les BattleRoyal
Les BattleRoyal sont des jeux devenus populaires en 2018 avec l’apparition de PlayerUnknown’s BattleGrounds (PUBG) puis en 2019 de Fortnite et en 2020 de Call of Duty – Warzone. Les BattleRoyal peuvent se jouer à la première personne : en FPS (Apex Legends) ou à la troisième personne : en TPS (Fortnite). Le nom « BattleRoyal » vient du film éponyme dans lequel une classe doit s’entretuer jusqu’à ce qu’il ne reste plus qu’une personne (« Last man standing »). On retrouve par exemple ce concept dans le film Hunger Game. Les jeux en BattleRoyal (couramment appelés « BR ») se déroulent de la manière suivante : 79 - Tous les joueurs sont parachutés sur une grande carte et commencent avec la même arme ou sans arme. - Les joueurs doivent fouiller des caches pour trouver du matériel (armes, munitions, protections...), éliminer d’autres joueurs, et se déplacer. - La carte va se réduire au fur et à mesure de la partie par zones (cercles concentriques Figure 3) de manière imprévisible, obligeant les joueurs à s’affronter. Les BattleRoyal peuvent se jouer seuls ou en équipe. Ils impliquent de garder son sang-froid pour viser juste et remporter ses combats mais aussi de réfléchir à ses déplacements. Contrairement à un jeu comme CS:GO, être bon tireur ne suffit pas, il faut être capable d’anticiper ses déplacements (chercher à se placer en hauteur), les déplacements des autres pour les empêcher de prendre les meilleures positions, etc.
Figure 3 - Extrait de Fortnite pendant la WORLD CUP SOLO (98), a droite on peut observer la carte avec en violet la zone qui n’est plus accessible aux joueurs, et un cercle qui représente la prochaine zone sûre.
1.1.3.
Les MOBA* Une arène de bataille en ligne multijoueur (en anglais, Multiplayer Online Battle Arena : MOBA) est un genre de jeu vidéo qui tire son origine de Defense of the Ancients (DotA), associant le jeu de stratégie en temps réel et le jeu de rôle (7). Les MOBA les plus représentés dans le ESport sont League of Legend et DoTA2.
Figure 4 - Représentation schématique d'un exemple de carte de MOBA : en rouge et en bleu, la structure principale de chaque base et les tours de défense des deux équipes ; en jaune, les trois voies ; en vert, la jungle (7)
Le déroulement des MOBA est sensiblement le même indifféremment du jeu : deux équipes composées de plusieurs joueurs s’affrontent dans une arène (Figure 4). Chacune doit détruire les points avancés de l’équipe adverse puis détruire la base de leur adversaire dans un temps imparti. Contrairement aux FPS et aux BattleRoyal il n’est pas nécessaire de savoir viser ou se déplacer. Cependant la capacité d’apprentissage nécessaire est souvent plus importante. En effet il faut apprendre les capacités de chaque personnage, les associations de personnages efficaces, le temps de rechargement des capacités, etc. Les MOBA donnent le choix entre plusieurs personnages avec des caractéristiques et des compétences spécifiques qui permettront de jouer un rôle particulier pendant la partie (soigneur, DPS*, tank*...). Chaque membre de l’équipe a donc un rôle et doit gérer beaucoup d’informations en même temps, la concentration est là aussi indispensable, les parties sont longues et la fatigue peut faire craquer des joueurs.
Figure 5 - Extrait de League of Legends pendant les Worlds 2021 (8)
1.2. Répercussions grand public de l’ESport
Il n’est pas toujours évident de prendre la mesure de la popularité des ESports pour plusieurs raisons : - La première est qu’il existe différents jeux qui n’attirent pas forcément le même public, - La seconde et la quantité de compétitions à distance et en présentiel. - La troisième parce que les personnes jouant à un jeu ne regardent pas forcément son versant ESport et tous les spectateurs ne jouent pas forcément au jeu qu’ils regardent. Le site Newzoo a effectué des sondages pour se rendre compte de la proportion des spectateurs qui jouent aux jeux qu’ils regardent en ESport (Annexe 1). D’après leurs résultats il y a plus de spectateurs qui jouent aux jeux qu’ils regardent en ESport que de spectateurs qui ne jouent pas. Cependant la carrière des joueurs professionnels est à l’instar du sport, limitée dans le temps. Si un athlète de sport peut parfois avoir une carrière passé l’âge de 30 ans, on considère en ESport que les athlètes ne sont compétitifs que de 16 à 25 ans. Si chaque jeu implique des compétences particulières, certaines sont communes à tous. Lorsqu’un jeu (FPS, MOBA...) est publié ou est mis à jour il faut « l’apprendre », c’est-à-dire comprendre les mécaniques du jeu et comment les exploiter au mieux. Cet apprentissage est plus complexe dans les MOBA où la stratégie se fait en équipe et où il y a un nombre très important de mécaniques aussi bien individuelles que d’équipe. Il faut aussi comprendre qu’il y a peu de jeux qui restent longtemps sur le devant de la scène ESport. En effet certaines licences comme CS:GO ont perduré plus de 20 ans en compétition, mais une majorité a eu un succès limité dans le temps.
Figure 6 - Le nombre de "viewers" de Fortnite sur Twitch (9)
La courbe présentée ici est celle des spectateurs du jeu Fortnite sur Twitch. On peut considérer celle-ci comme représentative de la popularité d’un jeu. Comme on peut le constater, les jeux connaissent une période de grand succès puis un déclin. On peut néanmoins observer que la crise du COVID-19 a donné un second souffle à ce jeu (pic de mars 2020). On considère qu’en moyenne un jeu est populaire pendant 5 ans. Cependant certains facteurs réduisent sa durée de vie comme notamment la sortie d’un jeu du même type. L’exemple le plus parlant est celui du BattleRoyal (PUBG) qui a perdu beaucoup d’audiences (10) à la sortie d’un autre BattleRoyal : Fortnite. Logiquement, la popularité d’un jeu conditionne le nombre de compétitions, les sommes d’argents et les gains financiers (« cash prize ») liés à celle-ci.
1.3. Ligues et compétitions 1.3.1. Ligues officielles et tournois présentiels
Il existe en ESport des compétitions privées dans des ligues, souvent étroitement liées à l’éditeurs d’un jeu. Les compétitions importantes se déroulent en public mais sont aussi diffusées en ligne par l’organisateur. Aux Etats-Unis, 5 matchs de League of Legends ont été diffusé en direct sur la chaine de télévision « ESPN 2 » (11). Les compétitions sont devenues populaires et suivies aux Etats-Unis. On peut penser qu’à terme cet engouement traversera l’Atlantique et il n’est pas impossible de les voir débarquer à la télévision en Europe. Les gains financiers des compétitions ont de quoi attirer du monde. En 2019 sur le BattleRoyal Fortnite, le joueur Kyle Giersdord « Bugha » a remporté 3 millions de dollars en terminant premier de la compétition (12). Au moment où il gagne, Bugha n’avait que 16 ans. Il y avait dans cette compétition 30 millions de dollars de « cash prize » distribués devant le stade Arthur Ashe au trois quarts plein (stade où a lieu l’US Open). La seule compétition qui dépasse ce « cash prize » est Page « The International » qui a plus de 34 millions de dollars de gains, celle-ci se déroule sur le jeu DotA 2 (13). Le fonctionnement des ligues de ESport est assez particulier. Elles sont privées et sont souvent gérées par l’éditeur du jeu : Valve pour DotA 2, Riot Game pour Fortnite, Activision pour Call of Duty – Warzone... Ce fonctionnement laisse libre cours aux éditeurs de jeux d’organiser les modalités de compét notamment concernant le dopage. Il existe aussi des compétitions privées comme l’ESWC qui rassemblent de joueurs de différents pays au cours desquelles différents jeux sont joués etc. On pourrait comparer ce fonctionnement à des « jeux olympiques privés ».
1.3.2. Tournois en ligne
L’avantage du ESport est la facilité à organiser des évènements en lignes permettant de rassembler plusieurs athlètes physiquement éloignés. Nous allons prendre ici l’exemple des Warzone World Series (ou WZWS) où les gains pour le vainqueur sont importants (150 000€ pour les WZWS 2021 en solo remportés par le joueur français « CHOWH1 »). Les WZWS sont des compétitions par zone géographique (Amérique du Nord, Europe) durant lesquelles des joueurs s’affrontent sur le Batte Royal en FPS « Call of Duty : Warzone ». Les compétitions peuvent se dérouler de différentes manières : soit au score sur plusieurs parties, soit sur une partie où la dernière équipe en vie gagne. Ces compétitions peuvent avoir lieu en équipes (de 2 à 4 joueurs) ou en solo. Les joueurs peuvent participer s’ils sont invités par Activision (le développeur du jeu) ou participent à des phases de qualification qui ont lieu en amont de la compétition (14). NB : Les WZWS sont une des deux types de compétitions organisés par Activision, l’autre compétition est la Call of Duty league qui consiste en des affrontements en LAN. Ces compétitions sont retransmises de différentes manières, mais la principale est la plateforme de streaming Twitch. En effet, chaque joueur va diffuser les images de son point de vue (ou POV) c’est-à-dire qu’il va diffuser son écran (cf. Figure 2), on appelle ça le « stream ». Ainsi les spectateurs voient la compétition comme s’ils étai le compétiteur, à l’instar des caméras embarquées en Formule 1. Figure 7- Le « stream » Twitch du joueur français CHOW1 aux WZWS 2021 (15)
La compétition est ainsi multi diffusée en direct avec les points de vue des différents joueurs et il existe aussi un « stream » de commentateurs officiels qui suivent le point de vue des joueurs en détaillant les actions et placements des athlètes. Ce format permet à chaque spectateur de regarder son joueur préféré pendant la compétition, il faut savoir que la plupart des joueurs « stream » sur Twitch régulièrement. Il existe souvent un lien fort entre les joueurs et leur communauté, et ce format de compétition est très populaire, (e.g. près de 34 500 personnes regardaient le stream du joueur CHOW1 lors des WZWS 2021 - Figure 7). Il faut aussi comprendre que depuis la crise du COVID-19 les compétitions ont dû aussi s’adapter et le format de compétitions à distance a considérablement gagné en popularité.
2. Dopage
Il est important de définir ce que l’on entend par dopage. Le dictionnaire Larousse le défini ainsi : « fait d'administrer, d'inciter à l'usage, de faciliter l'utilisation, en vue d'une compétition sportive, de substances ou de procédés de nature à accroître artificiellement les capacités physiques d'une personne ou d'un animal ou à masquer leur emploi en vue d'un contrôle » (16). Hélas cette définition passe à côté d’un aspect important du dopage : l’amélioration des capacités mentales. En effet, un coureur cycliste qui se dope cherchera avant tout à améliorer sa performance physique, mais ce n’est pas aussi réducteur dans le cas d’un athlète de ESport. Je tiens par ailleurs à souligner que la préparation mentale et physique sont deux facettes indissociables de la préparation des athlètes, peu importe la discipline. Il semblerait donc plus juste de définir le dopage comme : « fait d'administrer, d'inciter à l'usage, de faciliter l'utilisation, en vue d'une compétition sportive, de substances ou de procédés de nature à accroître artificiellement les capacités physiques et mentales d'une personne ou d'un animal ou à masquer leur emploi en vue d'un contrôle ». Nous allons donc nous intéresser au dopage en général, puis spécifiquement à la scène ESport avec une affaire marquante dans le domaine et pour finir aux produits qui risquent d’être utilisés dans ce domaine.
2.1. Le dopage en général et son impact sur le (E)Sport
Il semblerait que le dopage soit aussi vieux que le sport (17), la lutte antidopage n’est donc pas une question moderne circonscrite au ESport. Un document qui m’a servi de référence tout au long de mes recherches sur le dopage et la lutte antidopage est le rapport de la commission d’enquête sénatoriale sur l’efficacité de la lutte antidopage de 2013 (18). En effet, celui-ci met en évidence la difficulté du monde sportif à aborder la problématique du dopage et à mettre fin à cette pratique. Le sport le plus emblématique d’une lutte antidopage « en retard » par rapport aux pratiques dopante, semble être le cyclisme. Depuis l’affaire Festina en 1998 (19) qui avait révélé un système de dopage extrêmement avancé et organisé, la lutte antidopage a progressé dans ce sport. Pourtant, 14 ans plus tard, Lance Armstrong est suspendu à vie de l’Union Cycliste Internationale et ses 7 victoires dans le tour de France lui sont retirées (20) pour dopage. Il semble donc que certains sports soient, malgré une volonté apparente, incapables de se défaire de ces pratiques. La commission d’enquête souligne d’ailleurs la difficulté d’établir un état des lieux des pratiques dopantes, et l’omerta qui existe dans tous les sports à ce propos. Il semble aussi qu’aucun sport pratiqué à haut niveau ne soit épargné bien que les risques pour la santé liés aux pratiques dopantes soit bien établis. Il est fait mention d’ailleurs de la notion de « culture du dopage » (21) dans certains sports comme le cyclisme. Celle-ci est décrite dans l’ouvrage « L'épreuve du dopage. Sociologie du cyclisme professionnel » (21) dans lequel le processus de banalisation du dopage est décrit ainsi : « Plutôt que d'envisager le dopage comme résultant d'un choix individuel autonome ou a contrario d'une nécessité imposée par l'environnement des cyclistes, les auteurs invitent à envisager en priorité les interactions dans lesquels s'inscrivent ces sportifs et notamment des évolutions de leur culture professionnelle, elles-mêmes indissociables de l'environnement économique et technique plus générale de la discipline » (21). Le dopage n’est donc pas le fait d’un individu mais vraisemblablement une dérive progressive liée à la « culture professionnelle », d’où la notion de « culture du dopage ». On peut donc poser deux hypothèses : dans un domaine sportif où le dopage est normalisé (intégré à la culture professionnelle) le risque qu’un athlète qui débute dans ce sport finisse par se doper est forte. La deuxième est qu’un sport où la culture professionnelle ne va pas dans le sens du dopage, alors les athlètes se dopant seront probablement moins nombreux. Il faut aussi se rendre compte que l’âge auquel les athlètes où les futurs athlètes se posent la question du dopage et les réponses qui leur seront apportées sont importants. Erwann Menthéour, ancien coureur cycliste dopé et repenti déclarait : « dès mes quinze ans, j’ai su que j’allais me doper. J’avais vu mon frère le faire avant moi. Cela revenait à satisfaire les exigences de ce métier » (22). Les athlètes de ESport commencent souvent leur carrière tôt et leur jeune âge est un facteur de risque aggravant, d’autant plus que leur carrière est souvent courte (une dizaine d’année). Ils sont donc particulièrement vulnérables. La lutte antidopage doit être intégrée dans le fonctionnement « normal » des compétitions et des ligues pour être efficace, pour ne pas faire entrer le ESport dans une « culture du dopage ».
2.2. L’affaire de l’Adderall
L’affaire la plus marquante de la scène ESport vis-à-vis du dopage a éclaté en 2015. En effet, le 13 juillet de cette année, l’équipe canadienne “Cloud9” se fait battre en finale par l’équipe ukrainienne « Natus Vincere » en 3 manches sur le jeu CS:GO pendant la ESWC (23). La victoire lors de cette compétition permettait à l’équipe gagnante d’obtenir un prix de 250 000 dollars. A la suite de cette défaite, le capitaine de l’équipe « Cloud9 » Kory Friesen « Semphis » est interviewé. Cette interview avait pour but d’expliquer la contre-performance de l’équipe Cloud9 lors de cette finale attribuée notamment à un manque de communication entre joueurs. L’interview commence donc par les problèmes internes de l’équipe, de stratégie et de communication, puis subitement, Semphis dit : “We are all on Adderall, I don’t give a fuck it was pretty obvious if you listen to the coms” (24) : « On est tous sous Adderall, je n’en ai rien à foutre, c’était plutôt évident si tu écoutes nos communications ». Cette révélation va être un coup de tonnerre pour le ESport, en effet, jusque-là le dopage n’avait jamais été pris au sérieux dans ce domaine. Quelques jours plus tard, Semphis reviendra sur ses déclarations lors d’un podcast (25) et expliquera qu’il voulait créer une onde de choc pour qu’il y ait une prise de conscience. Il dit avoir vu beaucoup de ses adversaires avoir une prescription pour cette substance. Lors de ce podcast, un autre joueur (« mOE » Assad) dira lui aussi qu’il a pris de l’Adderall et aussi « toutes les substances illégales possibles » avant ses matchs. Cette révélation va avoir un impact sur l’ESL (Electronic Sport League) qui va faire appel à l’ESIC* (ESport Integrity Coalition) pour mettre en place dès février 2016 (26) un code de conduite antidopage (27) et une liste des produits interdits (28) en compétition. On peut voir là que l’ESL à réagit vite et a compris le risque pour le ESport de devenir un terrain propice au dopage si aucun contrôle n’était mis en place. Cependant 6 ans plus tard la situation n’a pas totalement changé : bien que certaines fédérations nationales (29) appliquent les règles antidopage de l’ESIC et que des ligues en accord avec l’ESIC sont plus nombreuses (30), il existe encore des compétitions où il n’y a pas de contraintes. En effet certaines compétitions semblent être gangrénées par le dopage, c’est notamment ce qu’explique Zack Nani, ancien joueur professionnel français de la Call of Duty League (CDL) (31). Selon lui « Désormais, les exceptions, ce sont les joueurs qui ne se dopent pas ». On peut recouper ce témoignage avec celui de plusieurs joueurs professionnels de la scène Call of Duty notamment Cuyler Garland « Huke ». Ce dernier a affirmé dans une vidéo qu’il a posté sur YouTube avoir commencé à prendre de l’Adderall vers 18-19 ans pour résister à la pression liée à la compétition (32) (33). Il explique aussi qu’il a utilisé de l’Adderall lorsque qu’il a gagné avec son équipe (les DAL Empire) lors de la saison 2020 de la CDL. A ce jour, la CDL n’a toujours pas mis en place d’action pour endiguer le dopage dans cette compétition, et ce malgré les nombreux joueurs qui reconnaissent y avoir eu recours. Il est à noter que la liste de produits interdits par l’ESIC comporte des failles, en effet certains produits et certaines classes thérapeutiques ne sont pas mentionnés. Nous allons maintenant chercher à comprendre quelles substances pourraient être employées dans le dopage en ESport, et à quelles fins elles pourraient être utilisées.
2.3. Les substances potentiellement dopantes en ESport
La lutte antidopage consiste à lutter contre le dopage c’est-à-dire contre l’utilisation de drogues ou de médicaments pour améliorer la performance d’un athlète. Il apparait évident qu’un coureur cycliste et qu’un joueur de ESports n’utiliseront pas les mêmes produits pour se doper. Dans le cas où une ligue antidopage apparaitrait dans le monde du ESport, il est nécessaire de se questionner sur : 79 - Les substances qui devraient être surveillées et testées lors des contrôles antidopage, - La fréquence des tests sur les athlètes, - Les moments où ils sont réalisés (juste après une compétition, pendant la compétition...). La lutte antidopage a un coût, principalement lié aux tests effectués sur les athlètes, et doit essayer d’être uniforme dans le monde pour être plus efficace. Il apparait clairement que ce coût ne peut être supporté que par des ligues ou des agences assez solides financièrement. Il faut donc lier la question du dopage dans le ESport à la création d’une organisation internationale similaire à ce qui existe dans d’autres sports. La fréquence des tests antidopage et le schéma de réalisation de ceux-ci dépendent de nombreux facteurs, notamment des substances surveillées. Nous allons donc voir les substances potentiellement dopantes qui pourrait être utilisées dans le ESports parmi les médicaments et les substances illicites. Cependant nous ne verrons pas toutes les substances masquantes, les techniques de manipulation du sang et des échantillons, etc. Nous allons maintenant nous attarder sur les substances et classes thérapeutiques pouvant être impliquées dans le dopage en ESport. Il est à noter que toutes les disciplines de ESport ne demandent pas les mêmes compétences, il sera systématiquement précisé le type de jeu concerné par substances potentiellement dopantes. 2.3.1. Les Bétabloquants
Les Bétabloquants ou β-bloquants, sont des antagonistes compétitifs réversibles des effets des catécholamines sur les récepteurs β-adrénergiques. L’effet thérapeutique recherché (baisse de la fréquence cardiaque et baisse de la pression artérielle) est lié à un blocage des récepteurs β1 adrénergiques. Comment fonctionnent les Bétabloquants? Les β-bloquants sont classifiés en fonction de leur cardio-sélectivité (récepteurs β1 et/ou récepteurs β2) et de leur activité sympathomimétique intrinsèque (ASI) (34). Le blocage des récepteurs de type β1 adrénergiques va entrainer la réduction : de la fréquence cardiaque, de la réponse aux stimulus nerveux positifs, de la réponse aux stimulus et de la vitesse de conduction nerveuse. Ce blocage va donc permettre d’augmenter la résistance au stress et d’empêcher l’emballement du rythme cardiaque lié à celui-ci. NB : Les Bétabloquants sont interdits dans les sports suivants : automobile, billard, fléchettes, golf, ski, tir et tir à l’arc (35). Comment pourraient-ils être détournés dans le ESport? Si l’augmentation de la capacité respiratoire n’est pas nécessaire dans le ESport, le contrôle du rythme cardiaque et la résistance au stress sont très importantes. En effet, dans des jeux impliquant une stratégie qui évolue au fur et à mesure du jeu, il est nécessaire de garder la tête froide et de ne surtout pas paniquer. Prenons l’exemple des jeux de type MOBA (e.g. : League of Legends, DotA 2) : les parties peuvent durer longtemps et se déroulent en plusieurs manches. A titre d’exemple, la finale « WORLDS 2019 League of Legend » a duré 3 manches de 45 minutes espac ées de pauses d’un quart d’heure. Celle-ci a eu lieu dans un stade rempli où les deux équipes sont côte à côte. On peut facilement supposer que la pression ressentie par les joueurs est très forte. On peut aussi imaginer leur utilisation dans les jeux de type BattleRoyal (e.g. : Warzone, Fortnite) : les joueurs sont seuls du début à la fin de la partie et le stress va augmenter au fur et à mesure de l’avancée de la partie. Le joueur « CHOW1 » a fait une vidéo (15) revenant sur sa victoire au « Warzone World Series » (WZWS) en expliquant « [...] il faut garder son calme, il faut être tranquille [...] le moindre mouvement superflu t’es grillé », « Là il faut respirer, il reste les 3 meilleurs joueurs EU (= Européens), ça fait 15 minutes que j’ai pas respiré (= à cause du stress) ». On comprend alors pourquoi la prise de ces médicaments pourrait avoir un impact sur la performance du joueur. Il est utile de rappeler l’importance de l’effet placébo qui sera particulièrement efficace pour la résistance au stress. Risques liés à l’utilisation des β-bloquants (34) Les β-bloquants présentent toutefois certains risques, en effet ils peuvent aggraver l’asthme ou un syndrome respiratoire obstructif préexistant, un syndrome vasculaire périphérique ou entrainer des épisodes d’hypoglycémie chez les diabétiques.
2.3.2. L’Amphétamine & les amphétaminiques
L’Amphétamine est un psychostimulant qui a été popularisée durant la seconde guerre mondiale pour permettre aux soldats d’être plus alerte et plus endurants (36). Si l’Amphétamine est toujours utilisée aujourd’hui, de nombreux dérivés ont été créés pour améliorer ses propriétés pharmacologiques. Puisque leurs effets sont essentiellement similaires nous allons donc voir quelle est l’influence de la prise d’Amphétamine ou de dérivés amphétaminiques en prenant l’exemple de l’Adderall. Comment fonctionnent les amphétaminiques? Tout d’abord il est important de rappeler que les amphétaminiques n’ont pas d’Autorisation de Mise sur le Marché en France pour les TDAH* sauf le Méthylphénidate qui a une structure amphétaminique modifiée limitant la libération massive de neuromédiateurs (37) (38). Les amphétaminiques agissent par une libération présynaptique des catécholamines (noradrénaline et dopamine principalement) au niveau du système nerveux central et périphérique, ce qui va entrainer une activité sympathomimétique* (39). Cette activité va permettre au consommateur d’être plus concentré, ce qui aura pour conséquence indirecte d’améliorer la résistance à la pression, en mettant le consommateur dans une « bulle ».
Illustration avec l’Adderall (40)
Commercialisé aux Etats-Unis, l’Adderall est un mélange de quatre sels d’Amphétamine (40). Utilisé dans le traitement des troubles de déficit de l’attention avec hyperactivité il est très répandu aux Etats-Unis puisqu’un enfant sur 10 est traité pour ce genre de trouble (41). Il est à noter que ce chiffre est très au-dessus de la moyenne mondiale qui est autour de 5% (41). Par ailleurs il est détourné de son usage initial depuis déjà plusieurs années aux Etats-Unis par les étudiants qui souhaitent augmenter leur concentration et la capacité d’apprentissage avant les examens (42). En effet les amphétaminiques permettent d’améliorer la concentration et de résister à la fatigue et d’augmenter la confiance en soi. Cependant elles comportent beaucoup d’effets indésirables. Comment pourraient-ils être détournés dans le ESport? Comme nous avons pu le voir précédemment (cf. 22), l’Adderall a déjà été employé plusieurs fois en ESport et continu de l’être. Le besoin d’augmenter sa concentration, le fait de savoir que l’équipe adverse en prend, le fait que ce médicament soit connu et répandu depuis au moins 2015 et l’absence d’interdiction d’utilisation dans certaines compétitions donnent à ce médicament le statut de produit dopant de référence dans le ESport. Que soit dans des MOBA, des FPS classiques ou des BattleRoyal, l’amélioration de la concentration et la résistance au stress et à la fatigue sont des avantages non négligeables pour améliorer sa performance. Cependant, si certains joueurs peuvent tirer un bénéfice de l’utilisation des amphétaminiques, d’autre seront pénalisés comme les joueurs devant établir la stratégie de l’équipe. En effet, ceuxci doivent être capable de comprendre les communications rapidement et l’effet « bulle » des amphétaminiques les desservirait. Il est a noté que seuls les amphétaminiques sont prohibés par l’ESIC.
Risques liés à l’utilisation des Amphétaminiques
Les amphétaminiques sont des molécules entrainant un risque de dépendance important, leur utilisation à long terme peut entrainer des troubles de l’humeur (dépression, anxiété, psychose amphétaminique...) mais aussi des atteintes physiques avec des atteintes cardiaques, rénales, intestinales... (43)
2.3.3. Les glucocorticoïdes
Les glucocorticoïdes sont des médicaments généralement utilisés pour réduire les réactions inflammatoires (44) et sont aussi appelés « anti inflammatoires stéroïdiens ». Dérivés du cortisol, les glucocorticoïdes de synthèse sont notamment : la Cortisone, la Pred nisone, la Prednisolone... La difficulté liée à ces médicaments c’est qu’ils peuvent être nécessaire au traitement de certaines pathologies. Il faut donc envisager de créer une autorisation spécifique pour les athlètes ayant un réel besoin médical. Comment fonctionnent les glucocorticoïdes? (44) Les glucocorticoïdes ont un mécanisme d’action commun : la modulation de l’expression génique de protéines impliquées dans le processus inflammatoire. Cette action va entrainer un effet antiinflammatoire, anti allergique et immunosuppresseur. S’ils sont utilisés à des fins de dopage ce ne sera pas dans ce but mais pour leurs effets secondaires. Un des effets secondaires des glucocorticoïdes est un effet « boost ». On peut imaginer que celui-ci soit exploité au même titre que les psychostimulants même si cette conséquence est moins importante que pour les amphétaminiques. Comment pourraient-ils être détournés dans le ESport? Bien qu’il existe différentes formes pharmaceutiques et voies d’administration, les glucocorticoïdes utilisés à des fins dopantes seront employés via des voies d’administration systémiques pour maximiser leur effet. Ainsi, ils peuvent être utilisés pour un effet « boost » par leur aspect psychostimulant (35) et leur prise rapide (comprimés orodispersibles) au début d’une compétition.
Les glucocorticoïdes Risques liés
à
l’
usage des
glucocorticoïde
s
Les corticoïdes ont une action très large et par conséquent de très nombreux effets indésirables. A ce titre, ils sont utilisés à des fins thérapeutiques avec précaution. Par exemple, en inhibant la réponse inflammatoire, la prise régulière de ceux-ci peut entrainer un risque d’infection plus élevé, un retard de cicatrisation. Ils entrainent aussi une hyperlipidémie, une hyperglycémie et un abaissement du seuil épileptogène.
2.3.4. La cocaïne
La cocaïne est un alcaloïde stupéfiant extrait d’Erythroxylum coca (45). Elle est prohibée dans la majorité des pays du monde (46). La feuille de coca est traditionnellement utilisée dans certains pays d’Amérique du Sud et contient de nombreux alcaloïdes. La cocaïne est extraite de la plante mais n’est ni vendue ni consommée pure (47) (Annexe 2). Comment fonctionne la cocaïne? (48) (49) La cocaïne agit en bloquant le recaptage des catécholamines (noradrénaline et dopamine principalement) dans la fente synaptique, faisant augmenter leur concentration dans celle-ci. Cette augmentation brutale va avoir pour conséquence un effet euphorisant (sentiment de puissance) et va aussi entrainer une importante résistance à la douleur et à la fatigue. Comment pourrait-elle être détournée dans le ESport? (50) Au même titre que les psychostimulants vus précédemment, la cocaïne pourrait être utilisée pour améliorer les temps de réaction, augmenter sa concentration, une résistance à la fatigue et au stress avec un sentiment de puissance. Ce dernier peut cependant être aussi un désavantage car un joueur prenant plus de risque pourrait aussi surestimer ses capacités. Risques liés à l’utilisation de la cocaïne (50)
Outre les risques judiciaires liés à l’importation, le trafic et la consommation de stupéfiants, il existe de très nombreux risques liés à cette substance. C’est pourquoi je ne vais pas présenter ici de liste exhaustive des risques. On peut cependant retenir un risque addictif important, des risques cardiovasculaires (arythmie cardiaque, cardiomyopathie) et neurologiques (convulsions, AVC), une perforation du palais et de la cloison nasale...
2.3.5. Cannabinoïdes
Les cannabinoïdes sont les molécules extraites de la plante Cannabis sativa L. (51), les deux molécules psychoactives présentes en forte quantité sont le delta-9-Tétrahydrocannabinol (THC) et le Cannabidiol (CBD) (52) mais il existe un grand nombre d’autres molécules contenues dans cette plante. Il existe aussi des cannabinoïdes de synthèse mais nous ne nous attarderons pas dessus. Les dérivés du cannabis n’ont pas le même statut légal dans beaucoup de pays Par exemple, aux Etats-Unis la consommation de cannabis est légale sous certaines conditions dans certains états mais pas dans tous (53). En France, la consommation de THC n’est pas légale, mais celle de CBD n’est pas illégale (54). Il devient alors plus délicat d’autoriser ou d’interdire ces substances en compétitions, leur statut légal variant d’un pays à l’autre (55). Comment fonctionne le THC? Le THC est la composante majoritaire qui possède des effets psychoactifs dans le cannabis. Il va provoquer ses effets en agissant sur les récepteurs CB1, ce qui va entrainer une libération de dopamine en activant le circuite de la récompense (56). Comment fonctionne le CBD? Le CBD n’a, à l’heure actuelle, pas d’effet stupéfiant démontré c’est pourquoi sa vente et sa consommation ne sont pas interdites en France et en Europe (57). C’est une molécule lipophile que l’on retrouve principalement sous forme de sommités fleuries ou d’huile. Le CBD va agir sur (55) les récepteurs sérotoninergiques, provoquant un effet anxiolytique mais n’aura que très peu d’affinité pour les récepteurs CB1. Le CBD a cependant une action d’inhibiteur de certaines cytochromes (CYP2B6, CYP2C19 et CYP3A4) (55) et il provoque des interactions médicamenteuses avec certains principes actifs ; c’est une substance peu addictive (58). Comment pourraient-ils être détournés en ESport? Aux vues des informations précédentes, il semblerait que dans un but de relaxation et de limitation de l’anxiété le CBD soit le plus adapté. Il faut se poser la question de son interdiction en ESport dans la mesure où les produits actuellement sur le marché sont plus ou moins concentrés et plus ou moins de bonne qualité. Ces deux facteurs présentent un risque pour la population générale mais aussi pour les athlètes de ESport qui pourraient devenir d’importants consommateur de CBD si les règlements les autorisent. Cependant je tiens à nuancer mon propos, en effet la consommation de CBD a, à l’heure actuelle, un rôle intéressant à jouer pour son action anxiolytique et sa faible addictivité face notamment aux benzodiazépines. Le CBD pourrait en effet jouer un rôle bénéfique chez les sportifs et ESportifs pour permettre une meilleure gestion du stress sans passer par les molécules vues dans cette partie. Risques liés à la consommation de cannabinoïdes
Les cannabinoïdes sont une famille de molécules variées avec des effets très différents et il convient d’établir le risque au cas par cas. Je pense qu’il serait plus simple d’interdire tous les cannabinoïdes naturels et de synthèse mais de faire une exception pour le CBD. En effet celui-ci présente peu de risques pour la santé et il n’apporte pas de réel avantage sur la performance des athlètes de ESport.
3. Compléments alimentaires
Nous allons nous attarder sur les différentes règlementations américaine et européenne en matière de compléments alimentaires. Ce choix découle d’un constat : les principaux influenceurs dans le domaine ESport et JVC sont nord-américains (JGOD, DrDisrespect...). Ainsi ils sont sponsorisés par des marques américaines qui expédient leurs produits notamment en Europe et donc sur le marché français. Nous allons donc pouvoir trouver des produits issus de deux règlementations et il est important de comprendre les conséquences possibles de cette situation. Les compléments alimentaires dit « gaming » ou ESport sont le plus souvent des poudres à diluer dans l’eau avec de compositions proches des boissons énergisantes (Figure 8).
Figure 8 - Les premiers résultats d'une recherche Google pour des compléments alimentaires "gaming" 3.1.
| 4,298
|
2008PA066582_2
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,008
|
None
|
None
|
French
|
Spoken
| 6,821
| 11,787
|
Yamauchi et al. ([35]) ont montré que la présence de stickers UPy sur des polyacrylates se traduit par une augmentation significative de l’adhésion du polymère sur la silice. Par des expériences de pelage sur une surface de verre, ces auteurs ont mesuré pour un polymère contenant 3% de copolymère UPy une énergie d’arrachement trois fois plus élevée que pour les polymères sans UPy. Cet effet disparaît lorsque qu’un solvant polaire est ajouté, preuve supplémentaire que l’adhésion est le fait des liaisons hydrogène.
σ (MPa) ε (%) Figure 17 Courbes contraintes-déformations pour deux polymères non greffés (hP1 = 39 000 g/mol, hP2 = 104 000 g/mol) et deux greffés UPy (coP1 = 33 000 G/mol, coP2 = 104 000 g/mol) ([34])
32
Chapitre I – Etude Bibliographique 2.1.3. Polymères portant des groupes pouvant établir de multiples associations 2.1.3.a. Stickers à base phényle-urazole
L’association d’un même sticker avec plusieurs autres se traduit par la formation d’agrégats qui affectent très fortement les propriétés du matériau. Le groupe de Stadler ([28], [38], [39], [40]) a modifié le motif phényle-urazole afin qu’il puisse établir des liaisons hydrogène avec plusieurs autres groupements associatifs. L’une de leurs premières études ([28]) comparait le motif phényle-urazole à un motif similaire sur lequel une fonction hydroxyle avait été ajoutée. Le sticker ainsi modifié peut établir trois liaisons, comparativement à deux pour le premier, de plus il permet d’établir des liens avec un troisième sticker. La Figure 18 montre la modification rhéologique apportée par ce changement, nous pouvons constater que le passage d’une aison entre deux stickers à une liaison d’un sticker avec deux autres, où l’on ne passe que de 2 à 3 liaisons hydrogène, induit un changement beaucoup plus marqué que l’ajout d’une double liaison hydrogène entre deux stickers. Figure 18 Comparaison du module élastique entre un polymère pur (•), deux polymères avec des stickers établissant une double liaison hydrogène entre deux stickers (+) (○) et un quatrième polymère portant un sticker établissant trois liaisons hydrogène avec deux autres stickers (×) ([28])
Le motif phényle-urazole a également été modifié par ajout d’une fonction acide carboxylique. Il a été montré que ce motif peut établir six liaisons hydrogène avec trois
33 Chapitre I – Etude Bibliographique
autres stickers ([39]), la cinquième liaison hydrogène étant interprétée comme une liaison entre un carbonyle de l’urazole et un atome d’hydrogène du cycle aromatique, comme le montre la Figure 19. Ce sticker modifie fortement le caractère viscoélastique des polymères sur lesquels il est greffé, le régime terminal est décalé de plusieurs décades. La diffusion des rayons X aux petits angles, ainsi que des analyses par calorimétrie différentielle (DSC), montrent la présence d’une structure ordonnée dans le matériau, attribuée à la formation d’agrégats par les stickers ([40]). Cette structure disparaît entre 70 et 80°C, les liaisons hydrogène s’ouvrent donc dans cette gamme de température et font perdre aux agrégats leur cohésion. Figure 19 Association multiple de carboxyphényle-urazoles ([39]) 2.1.3.b. stickers à base bis-urée
Le sticker bis-urée du groupe de Bouteiller, étant capable d’établir des liaisons avec deux stickers, a été greffé sur différents polymères. La thèse de Colombani ([12]) porte sur des modifications d’EVA (copolymère d’éthylène et d’acétate de vinyle) et de PDMS (PolyDiMéthylSiloxane) par ces groupes associatifs. Dans ce système, l’association multiple de stickers se traduit aussi par la formation d’agrégats, détectés par DSC et diffusion des rayons X aux petits angles. Ces agrégats cristallins empêchent les chaînes de glisser les unes par rapport aux autres. Le PDMS, qui est un liquide viscoélastique à température ambiante,
34 Chapitre
I
– Etude Bibli
ographique se comporte comme un élastomère thermoplastique après modification par des bis-urées ([41]). L’étude rhéologique permet de quantifier cet effet. Pour le PDMS pur, le module visqueux (G’’) est supérieur au module élastique (G’), signe d’un liquide viscoélastique. L’inverse est observé pour le PDMS greffé qui a un comportement essentiellement élastique. De plus, G’ est multiplié par un facteur allant jusqu’à 108 suite au greffage, ce facteur dépend de la nature des groupements fixés aux bis-urées et de la concentration de ces groupes. Malgré les très impressionnantes modifications de propriétés engendrées par ce greffage, la dégradation thermique des stickers bis-urées au-delà de 160 °C limite leur utilisation dans des polymères « classiques » mis en forme à des températures supérieures à 150 °C. 2.1.3.c. stickers à base de triazole amide et d’acide carboxylique Chino et Ashiura ([42]) ont développé un sticker basé une triazole amide et un acide carboxylique. Ce groupement peut établir six liaisons hydrogène avec quatre autres groupes associatifs, comme représenté sur la Figure 20. Figure 20 Association de stickers basés sur une triazole amide et un acide carboxylique ([42])
Ces auteurs ont greffé un polyisoprène liquide comportant des fonctions anhydrides avec de la 3-amino-1,2,4-triazole. Le greffage a été réalisé en faisant réagir l’amine du sticker avec un anhydride, cette technique est largement utilisée en extrusion réactive ([43], 35 Chapitre I – Etude Bibliographique [44]) en raison de la forte réactivité de l’anhydride vis-à-vis des amines. Une fonction amide et une fonction acide carboxylique ont ainsi été formés. Le produit greffé se comporte comme un élastomère classique. Sa contrainte à la rupture est fortement dépendante du nombre de stickers greffés. Les précédents exemples montrent qu’il existe de nombreux stickers pouvant s’agréger, résultant en une forte cohésion entre les chaînes. 2.2. Polymères portant des groupes associatifs en extrémités de chaîne
Les polymères modifiés par des groupements associatifs en bouts de chaîne ont fait l’objet de nombreux travaux. Nous allons nous intéresser dans un premier lieu à des polymères portant des groupes ditopiques en extrémités de chaîne, en portant une attention particulière aux modifications des propriétés rhéologiques et mécaniques. Ces systèmes sont particulièrement intéressants car ils obéissent à des lois statistiques similaires à celles qui régissent une polycondensation. Les polymères ainsi formés croissent suite à la liaison d’un groupe associatif d’une chaîne avec celui d’une autre chaîne. L’unité de répétition est ici non pas le monomère mais le polymère terminé par des stickers. La croissance de cette chaîne est limitée par le taux d’extrémités effectivement greffées et par le taux d’association entre stickers. Le degré de polymérisation DP ainsi obtenu peut s’exprimer en fonction du nombre de stickers par chaîne f et taux d’association des stickers p ([45]) : DP = 1+ p 1 − ( f − 1) p (4) Dans le cas où les deux extrémités de chaque chaîne portent un sticker (f = 2), nous retrouvons l’expression du degré de polymérisation pour une polycondensation classique. La Figure 21 représente l’évolution du DP en fonction du taux d’association des stickers p. Ces calculs ont été faits en supposant que les liaisons inter-stickers sont permanentes (ou avec des durées de vie supérieures au temps d’observation) et comparables à une liaison covalente. 36 Chapitre I – Etude Bibliographique
200 DP 150 100 50 0 0 0.2 0.4 0.6 0.8 1 taux d'association
Figure 21 Variation du degré de polymérisation DP en fonction du taux d’association des stickers
Ce graphique illustre bien l’importance d’avoir un taux d’association élevé pour obtenir un accroissement important de la longueur des chaînes supramoléculaires. Dans les exemples que nous citons ci-après, les groupes associatifs dimérisants portés par des polymères téléchéliques sont tous des uréido-pyrimidinones. Nous verrons ensuite les propriétés de polymères en forme d’étoile portant de telles fonctions terminales. Après nous être intéressés aux groupements s’associant avec un seul autre sticker, nous terminerons par une étude des travaux impliquant des polymères portant aux extrémités des chaînes des groupes associatifs capables d’établir des liaisons réversibles avec au moins deux autres groupes.
2.2.1. Propriétés rhéologiques de polymères téléchéliques portant des groupes dimérisants
Le groupe de Meijer a synthétisé un grand nombre de composés nouveaux en greffant le sticker UPy sur les groupes réactifs situés en extrémité de chaînes polymères. Ainsi, des polymères hydroxy-téléchélique ont été greffés par des stickers portant une fonctionnalité isocyanate, le dibutyl-dilaurate d’étain a été utilisé comme catalyseur de la réaction alcool-anhydride. La modification a été essayée avec succès des polyéthers, polycarbonates, polyesters, poly(éthylène/butylène), ([46], [47]) ou polytetrahydrofurannes
37 Chapitre I – Etude Bibliographique
([48], [49]). Dans certains cas, ce greffage peut faire passer le comportement du polymère de celui d’un liquide viscoélastique à celui d’un élastomère. La Figure 22 illustre ceci de man spectaculaire avec un poly(éthylène/butylène
). Figure 22 Effet du greffage de stickers en extrémités de chaînes. Le poly(éthylène/butylène) hydroxy-téléchélique non modifié est un liquide viscoélastique (vue de gauche). Après fonctionnalisation par des groupes UPy, il se comporte comme un élastomère (vue de droite) ([46]). Comme nous l’avons vu précédemment, les propriétés des polymères téléchéliques modifiés par des stickers aux deux extrémités sont très fortement affectées par le taux d’association des stickers. L’ajout de quelques stickers libres réduit très rapidement la longueur virtuelle des chaînes et se traduit donc par une chute de la viscosité ([21], [48]). Les stickers ont également pour effet d’augmenter la dépendance de la rhéologie aux variations de température ([46], [49]). Comme tous les polymères, une augmentation de la température augmente la mobilité des chaînes, ce qui se traduit par une fluidification du matériau. Indépendamment de cet effet, les groupes porteurs de liaisons hydrogène multiples se dissocient lorsque la température augmente, la longueur apparente des chaînes diminue donc. Ces deux effets se combinent et entraînent une très forte dépendance des propriétés viscoélastiques vis-à-vis de la température. La Figure 23 illustre ce phénomène, la viscosité à taux de cisaillement nul d’un polymère portant des fonctions UPy diminue beaucoup plus vite que le même polymère non greffé suite à une augmentation de température. 38 Chapitre I – Etude Bibliographique
Figure 23 Viscosité à taux de cisaillement nul à différentes températures d’un poly(éthylène/butylène) hydroxy-téléchélique (+) et d’un poly(éthylène/butylène) de même masse terminé par deux stickers UPy (•) ([46])
La rhéologie en solution de poly(dimethylsiloxane) portant des fonctions acides carboxyliques aux deux extrémités des chaînes a été étudiée par Abed et al. ([50]). A faibles concentrations, le comportement viscoélastique est peu affecté par la présence des groupes associatifs car les liaisons hydrogène ont pour principal effet de cycliser les chaînes de polymère : les deux extrémités se lient entre elles, la chaîne est alors « fermée ». A partir de 10 g/l, Abed et al. observent une augmentation importante de la viscosité en fonction de la concentration, comparativement à une solution du même polymère mais portant des fonctions esters en extrémités de chaîne. La viscosité théorique de telles solutions dans différents solvants a été modélisée en utilisant la spectroscopie infrarouge pour déterminer les concentrations des chaînes de différentes longueurs. Un assez bon accord avec les valeurs de rhéologie mesurées expérimentalement a été trouvé.
2.2.2. Propriétés mécaniques à l’état solide de polymères téléchéliques portant des groupes dimérisants
Nous nous intéressons ici aux manières dont un sticker peut améliorer les propriétés mécaniques d’un produit ayant initialement un comportement de polymère « classique » à 39
Chapitre I – Etude Bibliographique
température ambiante. C’est-à-dire un matériau de masse relativement élevée, ayant une bonne tenue mécanique à température ambiante. Dans de nombreuses études, des tests en traction ont montré que le greffage de stickers se traduit par une amélioration des propriétés mécaniques du polymère en terme de module d’Young et de contrainte à la rupture. Öjelund et al. ([49]) ont observé qu’une fois passé le seuil de déformation plastique, il se produit un ramollissement du matériau greffé (baisse de la contrainte) au fur et à mesure que la déformation augmente. Ce comportement a été attribué à la dissociation des liaisons hydrogène au cours du test. Les chaînes étant unies par des liaisons temporaires, elles peuvent relaxer après un certain temps, et donc diminuer la contrainte globale du système. L’influence du taux de conversion des bouts de chaîne en UPy sur les propriétés mécaniques finales du polymère a été étudié par Keizer et al. ([47]). Une conversion incomplète en UPy due à des molécules comportant un seul groupe réactif qui a pour effet d’interrompre la progression de l’assemblage supramoléculaire des chaînes. Les trois polymères étudiés dans les travaux de Keizer et al. ont des taux de greffage par UPy de 0,712, 0,778 et 0,916, ce qui engendre des degrés de polymérisation théoriques de 7, 9 et 24 (en assimilant les liaisons entre stickers à des liaisons covalentes). Les unités de répétition ayant des masses de 4080 g/mol, la masse des chaînes associées par liaisons supramoléculaires est théoriquement de 28500, 36750 et 98000 g/mol. Les tests de traction donnent des résultats montrant une augmentation du module d’Young et de la contrainte à la rupture, en accord avec cette augmentation apparente de masse (Figure 24). Figure 24 Courbes contraintes-déformations pour un poly(éthylène/butylène) fonctionnalisé avec UPy avec différents taux de chaînes monofonctionnelles : 0,288 (Lab-scale 40 Chapitre I – Etude Bibliographique (I) ), 0,222 (1 dm3 RC1 synthesis (II) ) et 0,084 (10 dm3 synthesis (III) ). Les taux de greffage respectifs sont de 0,712, 0,778 et 0,916. ([47])
L’amélioration de la tenue mécanique suite à un allongement de la masse moléculaire du polymère, a été observée dans différentes études, en particulier celles du groupe de Jérôme ([51], [52]) et Bensason et al. ([53]). Cette relation masse-propriétés mécaniques a également été décrite théoriquement par Drozdov ([54]). Ces améliorations de propriétés ont été attribuées à l’augmentation du nombre d’enchevêtrements.
2.2.3. Utilisation de la chimie supramoléculaire pour augmenter l’adhésion sur surfaces
La chimie supramoléculaire a également été utilisée pour augmenter l’adhésion sur des surfaces. Des polymères portant à une extrémité un groupement pouvant établir de multiples liaisons hydrogène ont été greffés sur certaines surfaces. La surface greffée peut ensuite être recouverte d’une couche de polymères portant d’autres groupes associatifs, la seconde couche ainsi déposée est alors réversiblement liée à la surface. Zou et al. ([55]) ont utilisé UPy (fixé sur une chaîne alkyl-pyrimidinone terminée sulfure) pour recouvrir une plaque d’or préalablement recouverte d’une première couche polymère, l’ajout de DMSO permet de dissocier les stickers et d’éliminer la seconde couche. Viswanathan et al. ([56]) ont utilisé des stickers complémentaires pour recouvrir de polymères une surface de silicone Le recouvrement de la surface peut là aussi être contrôlé par l’utilisation d’un solvant. Zirbs et al. ([57]) ont utilisé des polymères porteurs de groupes associatifs pour recouvrir de nanoparticules d’or une surface plane. La surface ainsi que les nanoparticules étaient recouvertes de ces polymères. Les groupes de la surface plane et ceux des nanoparticules étant complémentaires, plutôt que de s’associer entre elles, les nanoparticules se positionnent préférentiellement sur la surface plane. En raison de la grande affinité des liaisons hydrogène envers de nombreux matériaux, les stickers basés sur des liaisons réversibles peuvent être utilisés pour promouvoir l’adhésion en utilisant ces groupes sur un seul des deux composants (ou bien la surface à recouvrir ou bien le polymère à déposer). Un tel système est néanmoins beaucoup moins associatif que ceux précédemment présentés mais est plus facile à mettre en œuvre.
41 Chap
itre I
– Etude Bibli
ographique 2.2.4. Propriétés mécaniques et rhéologiques de polymères étoilés portant des groupes dimérisants à leurs extrémités. Lange et al. ([21]) ont greffé des stickers UPy aux extrémités d’un polymère à trois branches. Le produit obtenu est un polymère thermo-réversiblement réticulé. Ce polymère présente un module plus élevé que le même polymère réticulé chimiquement. Cette caractéristique surprenante est due à la capacité des stickers à se réarranger dans une configuration thermodynamiquement plus favorable. Elkins et al. ([58]) ont comparé différents poly(éthylène-co-propylène) linéaires hydroxy-téléchéliques non greffés, ou greffés par un sticker à une ou à deux extrémités. Des polymères de la même famille mais en forme d’étoile ont été comparés à ces matériaux. Les chaînes en étoile possédaient ou bien des bouts de chaînes fonctionnalisées UPy, ou bien des extrémités non fonctionnalisées. L’amélioration des propriétés mécaniques suite au greffage n’a pas pu être rigoureusement quantifiée car les matériaux sans groupement associatif n’avaient pas de tenue mécanique suffisante à l’ambiante pour qu'on puisse envisager de réaliser des tests de traction. Les produits comportant des groupes UPy, qu’ils soient linéaires ou en étoile ont pu être comparés et de grandes différences ont été observées : le module d’Young passe respectivement de 0,92 MPa à 1,65 MPa et la contrainte à la rupture de 0,56 à 1,06 MPa. Par contre l’allongement à la rupture est diminué : les polymères en étoile ayant plus d’interaction avec les autres chaînes, la relaxation de contrainte des chaînes est plus limitée, la contrainte se concentre plus localement sur certaines chaînes, ce qui faisait rompre ces dernières plus rapidement. La rhéologie montre aussi de grandes différences de comportement : le polymère en étoile présente un plate caoutchoutique beaucoup plus large, et le régime terminal n’est pas atteint à 100 °C dans les conditions de l’expérience. Alors que pour les polymères linéaires le passage d’une à deux extrémités UPy se traduit par une augmentation modérée du module élastique. Ces comportements sont visibles sur la Figure 25. 42
Chapitre I – Etude Bibliographique Figure 25 co-propylène) Module élastique en fonction de la fréquence à 100 °C pour des poly(éthylènefonctionnalisés UPy : linéaire mono-fonctionnalisé (▲), linéaire di- fonctionnalisé (×) et étoile fonctionnalisée (●) ([58])
2.2.5. Polymères linéaires portant en bout de chaîne des groupes associatifs formant des agrégats
Les premiers polymères portant en bout de chaîne des groupes associatifs s’organisant en une phase distincte de la matrice ont été développés par Müller et al. ([39]). Le sticker carboxy-phénole urazole a été utilisé. Cette phase est constituée d’agrégats de stickers. Ces amas disparaissent pour des températures comprises entre 100 et 120 °C. Le groupe de Long a étudié plusieurs polymères linéaires terminés par des stickers UPy ([59], [60]). Des études de calorimétrie différentielle (DSC) et des mesures rhéologiques indiquaient que les stickers s’organisent en agrégats. Des différences considérables sont observées : la viscosité en fondu est pour le polyisoprène avec stickers 100 fois plus élevée que pour un polyisoprène non modifié de même masse. La température de transition vitreuse Tg est aussi une bonne indication de la masse virtuelle des chaînes de polymère, la loi développée par Fox et Flory ([61]) lie la variation de Tg à la masse moléculaire selon : Tg = Tg ∞ − 43 C Mn
(5) Chapitre I – Etude Bibliographique avec Tg∞ la température de transition vitreuse à masse infinie, C une constante et Mn la masse moléculaire moyenne en nombre. Dans cette étude ([59], [60]), le polyisoprène modifié par la chimie supramoléculaire présente une température de transition vitreuse plus élevée que ses homologues terminés H, ou OH. Une augmentation de la masse virtuelle consécutive au greffage est
donc
obtenue. D’une man
ière
similaire à l’étude du groupe de Müller ([39]
), une disparition des
agrégats
est observée aux alentours de 80 °C. Yamauchi et al. ([60]) ont modifié de manière originale deux types de polyesters terminés di-alcool (un poly(butylène téréphtalate) ou PBT et un poly(butylène isophtalate), qui est un polyester amorphe). Contrairement à de nombreux exemples étudiés antérieurement, ce polymère est solide à température ambiante, avec des propriétés mécaniques, telles que le module en traction ou la contrainte à la rupture, facilement mesurables. De plus, afin de démontrer qu’un tel greffage est facilement applicable au milieu industriel, le greffage du sticker UPy fonctionnalisé isocyanate a été réalisé en extrudeuse. Le PBT modifié (MHB PBT) a été comparé au produit non greffé (PBTOH-1), et à des PBT de masse trois fois (PBTOH-2), et cinq fois supérieure (PBTOH-3). Les contraintes maximales, les élongations à la rupture, les résistances à l’impact et les viscosités à 235°C de ces quatre matériaux sont rapportés dans le Tableau 1. Propriétés PBTOH-1 PBTOH-2 PBTOH-3 MHB PBT 5 130 13 400 23 400 5 300 Mw / Mn (SEC MALLS) 2,3 2,4 2,3 2,2 Contrainte maximale (MPa) 54 56 56 55 Elongation à la rupture (%) 3 15 16 14 Résistance à l’impact, entaillé, (J/m) 34 54 54 55 Viscosité en fondu à 235 °C (Pa.s) 20 250 300 27 Mn (SEC MALLS)
Tableau 1 Propriétés mécaniques (en solide et fondu) des différents PBT avant et après greffage par UPy ([60])
Nous pouvons constater que le PBT porteur de groupements capables de former de multiples liaisons hydrogène a une viscosité comparable à celle d’un PBT de même masse, mais portant des groupements hydroxyles en bouts de chaînes. Le greffage n’affecte donc
44 Chapitre I – Etude Bibliographique
pas la rhéologie à hautes températures, les liaisons hydrogène étant alors ouvertes, la mise en forme n’est pas affectée par cette modification. Par contre, à température ambiante le PBT modifié se comporte comme un PBT de masse au moins trois fois plus grande que la masse réelle, les stickers étant liés entre eux augmentent la masse virtuelle de la chaîne. 2.3. Utilisation de la chimie supramoléculaire dans des mélanges de polymères
Des groupes supramoléculaires peuvent être utilisés pour créer des « copolymères supramoléculaires » et ainsi rendre miscible un mélange hétérogène de polymères, ou améliorer la dispersion de particules dans une matrice constitués d’un autre polymère. Les polymères à mélanger doivent être porteurs de groupes associatifs compatibles, c’est-à-dire que les stickers du polymère A doivent pouvoir s’associer avec ceux du polymère B. Le groupe de Zimmerman ([62], [63]) a réalisé plusieurs mélanges de polymères porteurs de groupes associatifs. Ces auteurs ont ainsi transformé un système immiscible de polymères en un mélange homogène. Plutôt que d’utiliser le sticker UPy qui s’associe avec un autre UPy, le groupe de Zimmerman a utilisé un premier sticker comportant une séquence ADDA greffé sur un poly(méthacrylate de butyle) (PMAB) et un second sticker avec une séquence DAAD greffé sur du polystyrène. La constante d’association (200 L.mol-1) est beaucoup plus faible que dans le cas d’UPy mais les groupes associatifs du polystyrène ne peuvent s’associer qu’avec ceux du PMAB, et inversement. De nombreuses liaisons réversibles sont ainsi établies entre les deux polymères, en si grand nombre que le système devient miscible. Le mélange obtenu présente une température de transition vitreuse unique, et cette température varie avec la composition du mélange, preuve de complète miscibilité. Dans l’optique de favoriser la dispersion d’un polymère dans un autre, Kim et al. ([64]) ont utilisé les liaisons hydrogène pour créer un copolymère. Un copolymère de styrène, et d’un monomère dérivé du styrène (hydroxystyrène) pouvant établir des liaisons hydrogène avec le polycaprolactone (PCL), a été utilisé afin d’obtenir une morphologie plus fine dans des mélanges polystyrène (PS) / PCL. Dans le cas où ce copolymère est statistique, l’amélioration de morphologie est beaucoup plus faible que dans le cas où le copolymère présente un gradient de composition, tout spécialement pour un rapport des comonomères se rapprochant de 1. La Figure 26 représente l’évolution de la taille de
45
Chapitre I – Etude Bibliographique
particules
suivant le copolymère utilisé,
l’évolution du temps de recu
it
est également représent
ée. Figure 26 Effet du temps de recuit sur la taille des particules pour des mélanges PS/PCL 80/20 sans copolymère (○), avec un copolymère statistique (◊), avec un copolymère à gradient de composition avec 59 % (∆) et 25 % (□) de polystyrène ([64])
Nous constatons également que le recuit n’influe pas sur la morphologie des mélanges de copolymères porteurs de stickers. Ces morphologies sont donc bien stabilisées par les copolymères, un séjour prolongé à l’état fondu n’induit pas de coalescence des particules dispersées. Des copolymères ont aussi été obtenus en liant entre eux deux polymères par d’autres types de liaisons réversibles, Fustin et al. ([65]) ont utilisé des stickers basés sur la coordination métallique pour créer un tel copolymère. 46
Chapitre I – Etude Bibliographique 3. Position de l’étude
Il a été précédemment montré que l’ajout de groupements associatifs sur des chaînes polymères peut fortement modifier les propriétés de ces dernières. Dans cette thèse, nous avons cher à étudier l’influence d’un sticker sur différents polymères. Cette thèse ayant été réalisée en collaboration avec Arkema, l’aspect industriel a présenté un rôle important. Le but de ces travaux a été d’obtenir des matériaux aux propriétés mécaniques à température ambiante sensiblement améliorées tout en gardant une bonne processabilité à hautes températures. Privilégiant des procédés sans solvant, l’étude de la dissociation des stickers dans divers solvants a été moins prioritaire que celle due à l’augmentation de température. Le sticker que nous avons utilisé devait présenter un taux d’association élevé à basses températures et une fraction importante de stickers dissociés à hautes températures. Comme nous l’avons vu précédemment, le sticker amidoéthyl-imidazolidone répond parfaitement à ces exigences en raison de sa constante d’association modérée. Cette constante nous permet d’atteindre un bon compromis entre la stabilité chimique et le coût énergétique dépensé pour chauffer et mettre en forme le polymère, grâce à une dissociation significative des stickers aux températures rencontrées lors des procédés de transformation classiques (200-250 °C). Pour positionner cette étude, nous allons commencer par présenter la synthèse d’UDETA, puis le mécanisme de greffage de cette molécule sur quelques groupes réactifs.
3.1. Synthèse d’UDETA
La préparation d'UDETA ne nécessite pas l’utilisation de solvant ni de catalyseur. La limitation de l’utilisation de solvant est aussi un enjeu grandissant de l’industrie chimique. La synthèse d’UDETA est réalisée en faisant réagir un excès de di-éthylène-triamine (DETA) sur de l’urée. La réaction est présentée sur la Figure 27. Ce mélange est chauffé avec précaution jusqu’à 120°C, l’urée se dissout alors dans le milieu. La température est ensuite portée graduellement jusqu’à 160°C. Une mesure du pH des gaz à la sortie permet le contrôle du dégagement d’ammoniac, secondaire de la réaction. L’avancement de la réaction est ainsi suivi. Cette température est maintenue pendant 47 Chapitre I – Etude Bibliographique environ 16 heures, jusqu’à ce que le dégagement d’ammoniac cesse. Le mélange est ensuite refroidi et fractionné par distillation pour éliminer la DETA résiduelle, indésirable au cours des réactions ultérieures utilisant UDETA en raison de ses deux amines primaires. Des sousproduits de la réaction, plus lourds que l’UDETA, sont également éliminés. Une cristallisation à froid est utilisée pour obtenir une grande pureté de l’UDETA.
O H2N NH2 NH H2 N N 130°C, N2 N H + + H 2N NH2 NH3
O Figure 27 Schéma de la réaction de synthèse de l’UDETA
3.2. Greffage
d’
UDETA
UDETA comporte une fonction amine primaire, potentiellement réactive sur des groupes comme les anhydrides, les chlorures d’acide, les époxys ou les isocyanates, et dans une moindre mesure sur les halogènes, les acides carboxyliques et les esters. Les réactions sur ces groupements sont schématisées sur le Tableau 2. Des polymères portant de tels groupes ont donc été privilégiés. Pour certaines de ces réactions, comme celle d’UDETA sur anhydride ou isocyanate, la réaction est très rapide et peut être réalisée par extrusion réactive. Cette méthode est un procédé industriel en masse, sans utilisation de solvant. 48
Chapitre I – Etude Bibliographique Tableau 2
Différentes réactions possibles de greffage d’UDETA. Le sticker amidoethyl- imidazolidone est obtenu à partir d'un acide, d'un ester, d'un chlorure d'acide ou d'une anhydride. D'autres types de stickers comportant toujours le motif imidazolidone sont obtenus à partir d'un anhydride, d'un composé ha éné, d'un époxy ou d'un isocyanate. 3.3. Plan de la thèse
Des polymères appartenant aux deux familles précédemment mentionnées ont été modifiés: des polymères téléchéliques, comportant des groupes réactifs aux extrémités des chaînes et des copolymères comportant des groupes réactifs pendants le long de la chaîne. Cette thèse sera organisée comme suit : dans un premier temps, la rhéologie de polymères porteurs de stickers UDETA sera présentée. Nous présenterons ensuite comment les groupes associatifs modifient les propriétés mécaniques des matériaux en phase solide. Ces deux
49 Chapitre I – Etude Bibliographique
parties nous permettront de comprendre comment les liaisons temporaires et réversibles influent sur les propriétés finales du matériau. Nous présenterons ensuite une utilisation originale de polymères porteurs de groupes associatifs : plutôt que d’avoir été utilisés tels quels, ils ont été ajoutés à des matrices dans lesquelles ils sont miscibles, ils jouent le rôle d’additif. Les modifications qu’ils engendrent seront présentées. Nous terminerons en étudiant l’effet de ces stickers sur des systèmes structurés. Cette catégorie est divisée en trois : les polymères semi-cristallins, ces matériaux comportent une phase amorphe et une autre cristalline. La deuxième partie concerne l’effet du greffage par réaction avec UDETA sur des mélanges de polymères, le sticker agissant comme un compatibilisant. Nous terminerons par l’effet de ces groupes associatifs sur un copolymère à bloc présentant une nano-structuration. 50
Chapitre I – Etude Bibliographique
4. Références [1] Lehn J.-M. Supramolecular Chemistry: Concepts and Perspectives, VCH : Weinheim, 1995 [2] Ball P. Nature 1994, 371, 202-203 [3] Armstrong G. ; Buggy M. Journal of Materials Science 2005, 40, 547-559 [4] Bosman A. W. ; Sijbesma R. P. ; Meijer E. W. Materials Today 2004, 34-39 [5] Fouquey C. ; Lehn J.-M. ; Levelut A. M. Advanced Materials 1990, 254-257 [6] Lehn J.-M. ; Mascal M. ; DeCian A. ; Fischer F. Journal of Chemical Society, Chemical Communications 1990 479-481 [7] Lehn J.-M. ; Mascal M. ; DeCian A. ; Fischer F. Journal of Chemical Society, Perkin Transactions 2 1992 461-467 [8] Kotera M. ; Lehn J.-M. ; Vigneron J.-P. Journal of Chemical Society, Chemical Communications 1994, 2, 197-199 [9] Lehn J.-M. Polymer International 2002, 51, 825-839 [10] Boileau S. ; Bouteiller L. ; Lauprêtre F. ; Lortie F. New Journal of Chemistry 2000, 24, 845-848 [11] Simic V. ; Bouteiller L. ; Jalabert M. Journal of the American Chemical Society 2003, 125, 13148-13154 [12] Colombani O. thèse de l’Université Pierre et Marie Curie, Paris, 2003 [13] Sijbesma R. P. ; Beijer F. H. ; Brunsveld L. ; Folmer B. J. B. ; Ky Hirschberg J. H. K. ; Lange R. F. M. ; Lowe J. K. L. ; Meijer E. W. Science 1997, 278, 1601-1604 [14] Beijer F. H. ; Sijbesma R. P. ; Kooijman H. ; Spek A. L. ; Meijer E. W. Journal of the American Chemical Society 1998, 120, 6761-6769 [15] Zimmerman S. C. ; Corbin P. S. Structure and Bonding 2000, 96, 63-94 [16] Kelly T. R. ; Zhao C. ; Bridges P. S. Journal of the American Chemical Society 1989, 111, 3744-3745 [17] Kyogoku Y. ; Lord R. C. ; Rich A. Bioichimica et Biophysica Acta – Nucleic Acids and Protein Synthesis 1969, 179, 10-17 51 Chapitre I – Etude Bibliographique [18] Sijbesma R. P. ; Meijer E. W. Journal of Chemical Society, Chemical Communications 2003, 7, 5-16 [19] Tournilhac F. G. ; Soulié-Ziakovic C. ; Leibler L. ; Lachaize L. US Patent 2005/148760 2005 [20] Lortie F. ; Boileau S. ; Bouteiller L. ; Chassenieux C. ; Demé B. ; Ducouret G. ; Jalabert M. ; Lauprêtre F. ; Terech P. Langmuir 2002, 18, 7218-7222 [21] Lange R. F. M. ; Van Gurp M. ; Meijer E. W. Journal of Polymer Science: Part A: Polymer Chemistry 1999, 37, 3657-3670 [22] Knoben W. ; Besseling N. A. M. ; Bouteiller L. ; Cohen Stuart M. A. Physical Chemistry Chemical Physics 2005, 7, 2390-2398 [23] Tournilhac F. ; Leibler L. ; Cordier P. ; Soulié-Ziakovic C. Elastic Materials. Patent Number WO 2006/087475 A1, 2006 [24] Söntjens S. H. ; Sijbesma R. P. ; van Genderen M. . P. ; Meijer E. W. Journal of the American Chemical Society 2000, 122, 7487-7493 [25] Stadler R. ; de Lucca Freitas L. L. Colloid and Polymer Science 1986, 264, 773-778 [26] Stadler R. ; de Lucca Freitas L. L. Polymer Bulletin 1986, 15, 173-179 [27] de Lucca Freitas L. L. ; Stadler R. Macromolecules 1987, 20, 2478-2485 [28] de Lucca Freitas L. L. ; Burgert J. ; Stadler R. Polymer Bulletin 1987, 17, 431-438 [29] Onogi S. ; Masuda T. ; Kitawaga K. Macromolecules 1970, 3, 109-116 [30] Stadler R. ; de Lucca Freitas L. L. Macromolecules 1989, 22, 714-719 [31] Müller M. ; Seidel U. ; Stadler R. Polymer 1995, 36, 3143-3150 [32] Leibler L. ; Rubinstein M. ; Colby R. Macromolecules 1991, 24, 4701-4707 [33] Stadler R. Macromolecules 1988, 21, 121-126 [34] Rieth L. R. ; Eaton R. F.; Coates G. W. Macromolecules 1996, 29, 2577-2583 [40] Hilger C. ; Stadler R. Macromolecules 1992, 25, 6670-6680 [41] Jouenne S. thèse de l’Université Pierre et Marie Curie, Paris, 2005 [42] Chino K. ; Ashiura M. Macromolecules 2001, 34, 9201-9204 [43] Harvey N. G. ; Bortnick N. M. ; Hallden-Abberton M. P. ; Queenan R. B. ; Goldman T. D. European Patent 0500361, USA, 1992 [44] Orr C. A. ; Cernohous J. J. ; Guegan P. ; Hirao A. ; Jeon H. K. ; Macosko C. W. Polymer 2001, 42, 8171-8178 [45] Gordon M. Proceedings of the Royal Society of London Series A-Mathematical and Physical Sciences 1962, 268, 240-259 [46] Folmer J. B. ; Sijbesma R. P. ; Versteegen R. M. ; van der Rijt J. A. J. ; Meijer E. W. Advanced Materials 2000, 12, 874-878 [47] Keizer H. K. ; van Kessel R. ; Sijbesma R. P. ; Meijer E. W. Polymer 2003, 44, 5505-5511 [48] Ligthart G. B. W. L. ; Ohkawa H. ; Sijbesma R. P. ; Meijer E. W. Journal of the American Chemical Society 2005, 127, 810-811 [49] Öjelund K. ; Loontjens T. ; Steeman P. ; Palmans F. ; Maurer F. Macromolecular Chemistry and Physics 2003, 204, 52-60 [50] Abed S. ; Boileau S. ; Bouteiller L. Polymer 2001, 42, 8613-8619 [51] Tong J.-D. ; Jerôme R. Macromolecules 2000, 33, 1479-1481 [52] Tong J.-D. ; Lecère Ph. ; Doneux C. ; Brédas J. L. ; Lazzaroni R. ; Jerôme R. Polymer 2001, 42, 3503-3514 [53] Bensason S. ; Stepanov E. V. ; Chum S. ; Hiltner A. ; Baer E. Macromolecules 1997, 30, 2436-2444 [54] Drozdov A. D. Polymer Bulletin 2001, 46, 215-222 [55] Zou S. ; Zhang Z. ; Förch R. ; Knoll W. ; Schönherr H. ; Vancso G. J. Langmuir 2003, 19, 8618-8621 [56] Viswanathan K. ; Ozhalici H. ; Elkins C. L. ; Heisey C. ; Ward T. C. ; Long T. E. Langmuir 2006, 22, 1099-1105 [57] Zirbs R. ; Kienberger F. ; Hinterdorfer P. ; Binder W. H. Langmuir 2005, 21, 84148421 53 Chapitre I – Etude Bibliographique [58] Elkins C. L. ; Viswanathan K. ; Long T. E. Macromolecules 2006, 39, 3132-3139 [59] Yamauchi K. ; Lizotte J. R. ; Hercules D. M. ; Vergne M. J. ; Long T. E. Journal of the American Chemical Society 2002, 124, 8599-8604 [60] Yamauchi K. ; Kanomata A. ; Inoue T. ; Long T. E. Macromolecules 2004, 37, 3519-3522 [61] Fox T. G. ; Flory P. J. Journal of Applied Physics 1950, 21, 581-591 [62] Park T. ; Zimmerman S. C. ; Nakashima S. Journal of the American Chemical Society 2005, 127, 6520-6521 [63] Park T. ; Zimmerman S. C. Journal of the American Chemical Society 2006, 128, 11582-11590 [64] Kim J. ; Zhou H. ; Nguyen S. B. T. ; Torkelson J. M. Polymer 2001, 47, 5799-5809 [65] Fustin C.-A. ; Lohmeijer B. G. G. ; Duwez A.-S. ; Jonas A. M. ; Schubert U. S. ; Gohy J.-F. Advanced Materials 2005, 1162-1165 54
Chapitre II Synthèses de Polymères Modifiés par la Chimie Supramoléculaire Chapitre II Synthèses de Polymères Modifiés par la Chimie Supramoléculaire
Nous allons présenter dans cette partie les différentes synthèses réalisées afin de modifier des polymères par la chimie supramoléculaire. En fonction du matériau d’origine utilisé, un greffage du sticker a été réalisé soit par réaction en solvant, soit lors d’une étape d’extrusion réactive, soit par condensation en masse dans un réacteur en verre. Les premières effectuées pour vérifier l’efficacité du greffage seront présentées. Lorsque le polymère d’origine a été synthétisé, cette étape sera détaillée. Les analyses réalisées pour vérifier les produits obtenus seront également présentées. Nous avons ainsi cherché à prouver que le concept du greffage d’UDETA sur polymères est valide. La dernière partie consiste en une étude de la modification d’UDETA par un di-isocyanate afin de permettre le greffage par réaction sur des fonctions alcools.
55
Chapitre II Synthèses de Polymères Modifiés par la Chimie Supramoléculaire 1. Synthèse des polymères bruts
Une partie des polymères synthétisés pour les essais de greffage par réaction avec UDETA sont des matériaux industriels. Dans ce cas, la synthèse n’est pas présentée. Néanmoins certains polymères ont été fabriqués à façon lorsque les propriétés spécifiques recherchées n’étaient pas rencontrées dans des composés commerciaux. Nous allons présenter ici la synthèse de ces polymères à propriétés particulières. Trois principaux types ont été synthétisés : des copolymères de méthacrylate de méthyle et d’acide méthacrylique de petite masse, des polyamides de moyennes ou faibles masses portant des fonctions acides carboxyliques terminales, et enfin des polyesters terminés alcool aux deux extrémités. 1.1. Poly(méthacrylate de méthyl
e
-
co
-
acide méthacrylique) La synthèse de copolymères poly(méthacrylate de méthyle-co-acide méthacrylique) (ou P(MMA-co-MAA)) de petites masses (Mn ≤ 25 000 g/mol) n’est pas explicitée ici car elle fait l’objet d’un paragraphe du Chapitre III, rédigé sous la forme d’un manuscrit d’article. Ces synthèses ont été réalisées au CRRA (Centre de Recherche Rhône-Alpes d’Arkema) La séquence des monomères d’acide méthacrylique et de méthacrylate de méthyle est déterminée par l’étude des triades des spectres RMN dans le DMSO et le DMF deutérés (détail en annexe). Les monomères acides sont principalement isolés entre deux monomères méthacrylates de méthyle, nous obtenons donc une bonne dispersion des acides. Néanmoins, contrairement aux polymérisations radicalaires de PMMA, où le polymère est atactique ([1]), les copolymères préparés par polymérisation radicalaire contrôlée sont très majoritairement syndiotactiques.
1.2. Polyamides
Des polyamides sont préparés en tube de verre en quantité de 50 ou 100 grammes. Différents polymères ont été préparés mais tous selon le même principe : les monomères 56
Chapitre II Synthèses de Polymères
Modifiés par la Chimie Supramoléculaire amino-acides sont introduits dans le réacteur. Ces monomères pouvant en théorie réagir jusqu’à obtenir un degré de polymérisation infini. Un diacide, utilisé pour contrôler la croissance des chaînes, est ajouté à raison d’une molécule par chaîne. Le diacide est dans tous les cas de l’acide adipique (à l’exception de la synthèse du polyamide 12 qui s’est faite avec de ’acide dodécanedioïque). La masse des chaînes est ainsi contrôlée. L’utilisation d’un diacide permet également d’obtenir des polyamides portant des fonctions acides aux deux extrémités. Pour le PA 11, le monomère est l’acide aminoundécanoïque, pour le PA 12 il s’agit de l’acide aminododécanoïque. Pour le PA 11/6/12 nous avons utilisé trois monomères en quantités massiques équivalentes : l’acide aminoundécanoïque, l’acide aminohexanoïque et l’acide aminododécanoïque. Le montage utilisé est représenté sur la Figure 28. L’agitation est assurée par une ancre, le réacteur est introduit dans un bain d’huile à 245 °C. La réaction est menée sous balayage d’azote afin d’évacuer l’eau dégagée lors de la polycondensation. Un tube de Dean-Stark est utilisé pour récupérer d’éventuels composés liquides à température ambiante emportés par le courant d’azote, et un bulleur permet de vérifier la présence du balayage d’azote. Le couple exercé sur l’ancre est enregistré durant la réaction, l’augmentation de viscosité est chaque fois trop faible pour être enregistrée. Les réactions ont été arrêtées après 1h30 à 245 °C.
Figure 28 Schéma du montage utilisé pour la polycondensation de polyamides
57
Chapitre II Synthèses de Polymères Modifiés par la Chimie Supramoléculaire
La masse des produits obtenus est mesurée par GPC dans l’alcool benzylique à chaud ou dans l’HFIP (hexafluoro-isopropanol). Pour le PA 11 la masse mesurée est de 3300 g/mol, pour le copolyamide 11/6/12 elle est de 5000 g/mol. Pour le PA 12, des masses de 5000 et 14000 g/mol ont été obtenues. Des analyses RMN ont été effectuées pour s’assurer que les chaînes sont terminés diacide.
1.3. Polyesters
Deux types de polyesters ont été synthétisés : des polyesters amorphes à basse Tg et des poly(butylène téréphtalate) ou PBT, tous sont terminés di-alcool. La synthèse de ces polymères, réalisée en réacteur de verre à l’échelle de 35 grammes nécessite deux étapes. 1.3.1. Poly(butylène téréphtalate)
Pour la synthèse du PBT, les réactifs introduits étaient le butane diol et le diméthyle téréphtalate dans un rapport stœchiométrique de 2 diols pour un diester. Ils sont introduits dans le montage représenté en Figure 31. 30 ppm d’isopropoxyde de titane est ajouté comme catalyseur de la première étape, qui est une transestérification. Après avoir purgé plusieurs fois le système par courant d’azote et tirage sous vide successifs, le ballon est plongé sous azote dans un bain de métal à 200 °C pendant 5 heures. Cette première réaction est représentée sur la Figure 29
Figure 29 Synthèse du bis-(2-hydroxybutyl)téréphtalate 58
Chapitre II Synthèses de Polymères Modifiés par la Chimie Supramoléculaire
Après cette étape, une seconde transestérification est réalisée en introduisant 200 ppm d’un catalyseur (Sb2O2), le bain de métal fondu était réglé à 275 °C. Un vide poussé (de l’ordre de 0,05 mbar) est appliqué pendant 30 minutes, 45 minutes ou 2 heures en fonction de la masse moléculaire souhaitée. Le vide sert à évacuer le butane diol dégagé par cette réaction, qui est récupéré dans un ballon adjacent. Plus la quantité de diol retirée est importante, plus la masse du polymère est élevée. Les PBT obtenus ont des Mn de 1500, 2000 et 4000 g/mol avec des indices de polymolécularité respectifs de 2,8, 3,4 et 3,5. Ils ont des températures de fusion de respectivement 217, 212 et 223 °C.
| 21,798
|
64/halshs.archives-ouvertes.fr-halshs-00411834-document.txt_1
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 6,896
| 14,093
|
NOUVELLES RÉFLEXIONS ÉTYMOLOGIQUES AUTOUR DU GREC [ANQRWPOS RÉSUMÉ.-
Le grec a[nqrwpo" « être humain » a été depuis longtemps rapproché du nom-racine ajnhvr, ajndrov" « homme », mais on entend ici démontrer que leur connexion ne va pas de soi. Le grec a[nqrwpo" est à l'évidence un composé, et le mycénien a-to-ro-qo /*ajnqrwvÈw// (datif) présente bien une labio-vélaire. Cela étant posé, on ne voit pas comment ni pourquoi l'attendu †a[ndr<wÈo" (« ayant un visage d'homme ») aurait été remplacé par ce type *a[nqr<wÈo" en grec commun : ce point demeure obscur, et il vaut mieux renoncer à cette explication. De fait, ce prototype *a[nqrwÈo" doit refléter un composé de date indo-européenne *ıdÌ-r-e-h3È-ó- (« inférieur, qui se trouve sur terre »). Dès lors, il faut poser un ancien adjectif indiquant une position dans l'espace (soit *ajqrwÈov" « tourné vers le bas, inférieur, terrien »), substantivé par le recul de l'accent (d'où « terrien, humain »). Enfin, il faut admettre que le -n- doit être analogique de
famille de ajnhvr, ajndrov". Introduction -
les données du problème : On a longtemps désiré identifier ajnhvr et a[nqrwpo", dont la distribution sémantique rappelle fort celle du couple lat. uir « homme viril » ~ hom–o « être humain » (mâle ou femelle).1 En regard du couple lexical qui s'observe en latin, le grec offrirait a priori une sorte de structure hiérarchique, soit forme simple vs forme dérivée (faisant à ce prix du grec a[nqrwpo" un composé - du reste obscur - incluant le nom du « visage », soit quelque chose comme *a[nr<wpo" « à visage d'homme » avec une épenthèse en q qui reste sui generis). Les autres explications ne méritent guère d'être citées que pour mémoire. 2 Il semble plus économique de renoncer à voir dans ajnhvr et a[nqrwpo" deux mots de la même famille, même s'il reste tout à fait probant de conserver à ce dernier la valeur classificatrice qu'on lui attribuait jusqu'alors. De fait, a[nqrwpo" désigne bien l'humain comme espèce (même s'il faut se garder d'une explication trop rapide et qui reposerait sur un étymon de type **a[ndr<wpo" « au visage d'homme »). C'est pourquoi, loin de chercher comment les deux formes se seraient disjointes (par on ne sait quel vague tabou linguistique), l'objet de ce travail sera de démontrer qu'elles se sont au contraire influencées dans la préhistoire du grec. 1. le dossier sémantique: 1.1. le formulaire homérique : 1 L'attique emploie ainsi le féminin hJ a[nqrwpo", parallèle au type hJ qeov" « la déesse ». Ainsi W. SKALMOWSKI, 1998, p. 103, qui pose *ajnt<rwvy (sur rJwvy f. « broussaille »), soit quelque chose comme « jeune plante, rejeton ». De même, F.B.J. KUIPER a pensé voir dans a[nqrwpo" un mot de substrat « pélasgique » (1956, p. 213), avec une prénasalisée (d'où une « alternance » de type aj< nqrwp< ~ drwp<). 2 1 Chez Homère, le terme a[nqrwpo" désigne l'homme par opposition aux dieux. Trait frappant, les meilleurs exemples ne se trouvent guère qu'au pluriel, dans des vers formulaires du type de E 442, ajqanavtwn te qew`n camai; ejrcomevnwn t j ajnqrwvpwn « (la race) des dieux immortels et (celle) des humains qui marchent sur la terre ». Fait notable, dans ce contexte, camaiv ne veut pas dire « au ras du sol » (comme dans att. camai<pethv" « qui rampe sur la terre »), mais « sur terre », et fonctionne encore comme un locatif autonome du vieux nom de la « terre » (camaiv équivaut ici à ejpi ; cqoniv, lui-même à l'origine du composé hypostatique ejpicqovnio"). Les humains sont volontiers qualifiés de camaigenei`" « qui naissent sur la terre » (Hymne hom. à Aphr., v. 108, camaigenevwn ajnqrwvpwn #).3 Noter l'opposition ajnqrwvpwnajndrw`n hjde ; gunaikw`n # (I 134) « (la loi) des humains, hommes et femmes ». Les humains ont pour caractéristique de séjourner sur la terre, par opposition aux diî superî, d'où la désignation de l'homme comme espèce, le « terrestre ».
1.2. parallèles phraséologiques :
Le lat. hom–o « être humain » (la forme n–em–o suppose *ne hem–o)4 est apparenté au vieux nom de la « terre » *dÌéflÌ-–om (véd. k∑-á, gr. cqwvn, v.-irl. dú, gén. don).5 Il s'agit d'un dérivé alternant *dÌflÌem--ó(n) ~ *dÌflÌm-én- « terrien, terrestre » dont les membra disjecta se prolongent également dans le got. guma (gén. 2 qui est fort par nature » 9 désigne une activité puissante, celle du guerrier, par contraste avec le gr. a[nqrwpo" qui désigne l'homme du commun. La phraséologie guerrière de « l'homme fort » repose sur ajnhvr, non sur a[nqrwpo". Il y a trace dans l'onomastique d'une ancienne collocation *h2nér- ~ *mén-e/os- (véd. n®má÷n–a n-áma « qui a pour nom force d'homme ») reflétée par le gr. jAndromevnh" (<*h2n®-mén-es-). Il faut citer le v.-irl. fergus (<celtique commun *‹iro-gussu-) avec le type symétrique ainm gossa fer « nom de force d'homme ». Ces formules basées sur gus « force » et fir « homme » renouvellent *h2nér- ~ *mén-e/os.10 On peut rapprocher le hitt. innara- « force » reposant sur un dérivé *en-(h2)nor- (qui rappelle l'hom. hjnorevh). Le dérivé individualisant *h2ner--ó(n) « le viril » (reflété par le cognomen dialectal (sabin) Ner–o), ne coïncide pas avec le groupe hom–o ~ a[nqrwpo" mais bien plutôt avec celui de uir ~ ajnhvr. Ner–o ne désigne pas un simple homme du commun (il est glosé par fortis ac strenuus chez Suétone, Tib., 1.2 et par ajndrei`o" chez les grammairiens latins11). Il faut en rapprocher *h2ner-Úó- (véd. nárya- « héroïque » et, substantivé, nárya- ntr. « acte héroïque »). Les langues sabelliques reflètent un type *nerio- « courageux » dans le dérivé Neri–o, - enis (qui est du type Ani–o, -–enis). Dans la même sphère sémantique, il faut citer le grec homérique ajndroth`ta « force » (acc.) qui est à poser comme un ancien *ajn÷rta`ta (<*h2n®-téh2-t-Ó) avec une trace prosodique du r voyelle du grec commun.12
1.4. distribution complémentaire de ajnhvr et de a[nqrwpo" :
Le gr. a[nqrwpo" « humain » est une ancienne désignation métaphorique, de celles qui « renvoient à un temps où, toute pensée étant de type religieux, il était naturel de désigner l'homme par des traits qui le distiguent des dieux : la mortalité, l'habitat sur terre ».13 Il y a un formulaire symétrique brotoivejpicqovnioi (en A 266 et en A 272) qui s'oppose au type ejpouravnioi qeoiv (W 220). Il faut sans doute poser un ancien adjectif *ajnqrwpov" signifiant plus ou moins *« inférieur » ou « terrestre » du même type que les dérivés *dÌflÌem--ó(n) ~ *dÌflÌm-én- ou bien *dÌflÌe/om-Úó- qui sont en voie de lexicalisation pour aboutir au signifié « homme, humain » (v.-irl. duine, gaul. tevo-ctonion). Au niveau du grec, on note un contraste particulièrement net entre ajnhvr et a[nqrwpo" : ce dernier fonctionne clairement comme une sorte de classificateur dépréciatif, ainsi ajnqrwvpou" uJpogrammateva" (Lys., XXX, 28) « de simples sous-greffiers ». On trouve parfois, chez Eschine, le tour govh" a[nqrwpo" « un misérable charlatan ». On relève ainsi chez Théocrite, Nomei`", v. 62, w[nqrwpe filoi`fa « paillard d'homme » (où l'on reconnaît le composé dor. *fil<oivfa–" « fornicateur »). Le terme a[nqrwpo" revêt à lui seul une nuance d'insulte et de mépris, surtout au vocatif. Il n'est que de citer, toujours chez Théocrite, dans les Surakosivai, v. 89, # Ma` povqen w{nqrwpo" « Mais d'où sort-il donc celui-là,? »). Hérodote n'ignore pas cet
9 Ainsi J. SCHINDLER, loc. cit., p. 38.
Pour ces faits, consulter l'article de J.-L. GARCIA-RAMON, 2006, pp. 79-94. 11 CGL IV 124, 22. Rapprocher en outre neri–osus : resistens, fortis (CGL V 468, 2). Noter osque nír, gén. nereís, acc. pl. nerf, qui reflète une apophonie *h2n-ér, *h2nér- (pas de traces du degré zéro). 12
A
insi
I. HAJNAL, 2003, pp
.66-67
. 13 A
. MEILLET,
1921
,
p
. 276. Les deux caractéristiques se rencontrent en A 272, brotoi;ejpicqovnioi « les mortelsqui résident sur la terre ». Il s'agit d'hommes du commun que Nestor oppose aux anciens héros. 10 3 usage, a insi en VIII, 125, où Thémistocle, pris à partie par un certain Timodèmos d'Aphidna, personnage obscur, a cette cinglante réplique : oujt j a}n ejgw ; Belbinivth" ejtimhvqhn ou{tw proŸ" Spartiatevwn, ou[t j a]n suv, w[nqrwpe, ejwŸn jAqhnai`o" « Si j'étais Belbinite14, je n'aurais pas reçu tant d'honneurs des Spartiates, tout comme toi, mon (bon)homme, qui es (pourtant) Athénien ». Il est précisé que ce personnage ne faisait point partie des hommes illustres (ouj tw`n ejpifanevwn ajndrw`n). Le contraste est fort net entre ajnhŸr basileuv" « roi » (Hom.), ajnhŸr mavnti" « devin » (Hdt.), ou bien l'att. a[ndre" dikastaiv « juges », qui relèvent du vocabulaire noble et institutionnel, et des tours méprisants comme a[nqrwpo" uJpogrammateuv" « un misérable sous-greffier », ou bien encore a[nqrwpo" *filoivfa–" « un obsédé sexuel » et enfin govh" a[nqrwpo" « un vil charlatan ». 2.
tentative d'é
tym
ologie: 2.1. 4 « un marchepied incrusté d'ivoire figurant un homme, un cheval, un vase à plusieurs pieds et un palmier »18 Encore une fois, a[nqrwpo" n'est pas un dérivé approximatif, ni un hyponyme. Il ne se définit pas comme une partie du champ sémantique couvert par ajnhvr, car il s'en démarque absolument. Il désigne l'humain comme espèce par opposition aux dieux et aux bêtes, et doit reposer sur la substantivation d'une épithète (« mortel » ou « terrien »).
2.3. proposition d
'
un
étymon indo-européen : 2.3.1. un ancien composé : Il semble opportun de partir d'un ancien adjectif grec commun *ajqrwÈov" « tourné vers le sol » (<*ıdÌ-r-e-h3È-ó-) qui serait à l'adverbe i.-e. *ıdÌér « en-dessous » ce que le dérivé *h2ıti-h3È-ó- (lat. antîquus « opposé »19) est à *h2ıtí « en face » (gr. ajntiv). Il reste possible de poser une sonante longue, avec une formation athématique *ıdÌ-®-h3È-ó-. En ce cas, le développement de la sonante longue *CRw< (<i.-e. *CṚh3-) en grec rappelerait des faits bien connus comme gnwtov" (<*flıh3-tó-) ou brwtov" (<*fi®h3-tó-). 20 Il paraît plus expédient de poser un ancien locatif thématique de forme i.-e.*ıdÌ-r-é de type *Èútre « où? » (reflété par le véd. kútra et par l'arm. ur). La structure morphologique *-ter-o- ~ locatif *-tr-e serait donc antérieure au type « régulier » de locatif thématique *-ter-e /o-Ú (soit le type, récent, de skr. antare « au milieu »).21 Structurellement, le locatif archaïque de l'adjectif * ́ıdÌ-er-o- « inférieur » ne saurait être autre chose que *ıdÌ-r-é « en-dessous ». En termes de typologie, le dérivé secondaire *ıdÌ-r-e-h3È-ó- bâti sur thème de locatif *ıdÌ-r-é serait comparable au skr. adharîṇa- « vil, méprisé, inférieur » (mot de glossaire) qui reflète un ancien locatif *adhar-i (cf. av. adairi) non autrement attesté. Virtuellement, le dérivé skr. adharîṇa- repose sur un suffixe de Hoffmann, soit quelque chose comme *ıdÌ-er-i-h3é/ón-, symétrique du type *uper-i-h3é/ón- (gr. JUperivwn22). 2.3.2. le nom de la « face » comme second membre de composé : Le second membre du composé *°h3È-ó- est devenu un morphème suffixal peut-être dès l'indo-européen.23 Le sens initial en est vraisemblablement « dont l'aspect est tel ou tel ». Cette formation, jadis athématique, s'est constituée en une classe fermée : celle des dérivés
18 Lecture de L. R. PALMER, 1963, p. 352. Le sens ancien de *« qui est en face, opposé » se retrouve dans le dénominatif antîqu–are « voter contre ». 20 Le mérite d'attribuer le <w< à une sonante longue revient à E. HAMP, 1977, pp. 77-92, « le vocalisme <w< y a été le résultat fortuit de r vocalisé + laryngale de couleur o. » (p. 85). 21 Nous renvoyons à la belle analyse de G. KLINGENSCHMITT, 2005, pp. 251-2. Ce dernier cite en outre l'indéfini arm. urek' « quelque part », qui se superpose au skr. kutra-cid, soit quelque chose comme *Èú-treÈid. Dans cette même page, l'auteur pose ad hoc un prototype *h2ıdÌr-e-h3È-ó- « irdisch » afin de rendre compte directement de la nasale du grec a[nqrwpo". Ce point renouvelle ses vues antérieures (1987, p. 175). 22 Voir C. de LAMBERTERIE, 1999 [2000], pp. 79-108 s.u. jUperivwn. 23 Consulter là encore E. P. HAMP, 1977, pp. 77-92. 19 5 adjectivaux sur thème d'adverbe, soit *h2ıti-h3È-ó- « qui apparaît en face » sur *h2ıtí « en face »24, *opi-h3È-ó- « qui est en face » (hom. ojpi–peuvw « lorgner » reflétant *ojpi–pov"), bâti sur *opí (reflété par myc. o-pi = ejpiv), *sÓ-h3È-ó- « qui apparaît en ne faisant qu'un avec » (d'où véd. s–akám ntr. adv. « également, ensemble, en même temps »).25 Ce type possède d'ailleurs un doublet athématique dans le tokh. A smakk « égal, constant »
<
tokh
. com.*sämaek <*sÓ
Ho
È- <
*s
Ó
-h3éÈ- « dont l'aspect est uni »).26 Le védique préserve l'état des choses le plus ancien, dans le type ny-àk- « tourné vers le bas » qui fait au féminin n ́îcî (<*ni-h3È-íh2). En synchronie, ces formes sont rattachées au verbe ny-AÑC- « se tourner vers le bas » avec un masculin refait secondairement en ny--á\n (<*ny--á\nk-s). Il existe par ailleurs un type nîca-, déjà thématisé (M–anavadharmaś–astra +). Le cas de figure se retrouve en vieux slave, avec le couple préhistorique (vauz)nakau « u{ptio" » commutant avec le type nicï (pade nicï « e[pesen ejpi; provswpon », Luc, XVII, 16). Il faut partir de sl. com. *nakau (<*n(Ú)–oÈ-ós issu d'un athématique *ni-h3-óÈ-s « tourné vers le bas, face contre terre »).27 Le type nicï repose, au moins virtuellement, sur un thématique *nîÈ-ó-. Le gr. hom. ejni-phv « invective » doit reposer sur un ancien neutre *(e)ni-h3È-éh2 (plur. tant.) « mépris, regards méprisants » métanalysé en féminin. 6 Il y a un parallèle sémantique frappant dans le skr. class. nîcyati « être de condition inférieure, être esclave » (Siddh–anta-kaumudî). On observe un couple antithétique ny--á\n « face contre terre » vs utt–ana- « la face tournée vers le ciel ». En revanche, il n'y a rien à tirer du véd. adhar-á\n, --ácî, --ák (<*adhara-ák) « tourné vers le sud, orienté vers le nadir » (atharvavéd. adhar–acyà-). Ce dernier est d'émergence toute indienne, tant pour le sens que pour la forme (*adhara--á\n est bâti sur l'adjectif thématique ádhara-). Le type adhar–ac ́îna(*V 2.17.5) est sûrement analogique de nîc ́îna- qui est ancien. Sémantiquement, c'est ny--á\n « face contre terre » qui répond le mieux au grec commun *ajqrwÈov" « humble, servile, (homme) du commun ». L'étude de la phraséologie homérique permet de trouver un correspondant au véd. ádhara- « inférieur » ainsi qu'au lat. inferus (<* ́ıdÌ-er-o-). Pour rendre compte du verbe ajqerivzw « traiter comme un homme du commun, mépriser » (symétrique au skr. class. adhararyati « rendre inférieur, surpasser ») il faut poser un ancien *a[qero" « vil, commun, méprisable ». C'est là un dénominatif causatif ~ subjectif du type d'ajndrapodivzw « traiter comme un esclave ». 29 Ce terme s'inscrit bien dans le champ d'application sémantique ici posé pour a[nqrwpo", ainsi qu'il apparaît de A 261, [ dh gavr povt j ejgw; kai; ajreivosin hjevper hJmi`n H ajndravsin wJmiv– a, kai; ou[potev m j oi{ g j ajqevrizon. « J'en ai déjà connus qui m'étaient supérieurs, Des guerriers qui jamais ne m'ont tenu pour vil. » Comme on le voit à la lumière de cet exemple, c'est le seigneur-de-guerre (ajnhvr) qui reconnaît ses pairs au moyen d'une parole-qualifiante (oujk ajqerivzw « dire que quelqu'un n'est pas un homme du commun »). Voici pourquoi cette tournure ne se rencontre guère que négativement. Il faut renoncer à l'étymologie synchronique avec tout le groupe de gr. ajqhvr « barbe d'épi ».30 La locution oujk ajqerivzein est un nár–aśaÓsa- (« éloge du guerrier, parole qualifiante »). Il y a toute une phraséologie guerrière et virile reposant sur l'opposition ajnhvr ~ a[nqrwpo". Ainsi chez Hdt, VII, 210, polloi ; meŸn a[nqrwpoi, ojlivgoi deŸ a[ndre" « (il y avait) beaucoup d'hommes, mais peu de guerriers ». 7 drevpw « racler » et drwpakivzw « épiler », mais semble reposer sur gr. com. *nrwvÈ<". C'est là la communis opinio, retenue par O. MASSON, qui convoque le témoignage de nombreux faits dialectaux pour assurer de l'existence de cette glose (doutes excessifs dans le DELL). Il cite en effet le nom propre Drwpivda–" ainsi que l'att. Drwpivdh" attesté au VIIéme siècle avant notre ère.31 La forme a été rapprochée de tout le groupe de nwrevw « être actif » conservé chez le même Hésychius (nwrei`: ejnergei`). Ces deux composés désignent l'homme actif, et se rattachent donc tout naturellement à la racine *h2ner- « être fort ». Il faut partir d'un ancien neutre *(h2)n-ór « activité virile, force, énergie » où la chute de la laryngale se justifie par la présence du degré o. La forme drwvy remonterait à un dérivé en <wp< athématique sur degré zéro *(a)nr< (avec chute de la laryngale analogique des formes en *nwr<). Dans cette hypothèse, le nom i.-e. de l'oeil (*h3-óÈ-s) fonctionnerait comme un morphème déjà grammaticalisé, servant à former des composés déterminatifs (soit « qui présente l'apparence de », lat. fer–ox « sauvage ») et non pas des composés possessifs (« qui a un oeil ~ un visage tel ou tel »). 32 Cette théorie se révèle fragile : le terme drwvy: a[nqrwpo" (Hsch.) n'implique pas forcément l'idée de « force » ou de « courage «, et un un composé *(aj)nr<wvÈ< semble fort singulier. De plus, l'alternance ici requise semble fort archaïque, et doit être anachronique. Enfin, il y a trace en grec d'un adjectif de couleur bâti sur ce thème *nwr< « puissance ». Chez Homère, les clausules nwvropa calkovn # et nwvropi calkw`/ # « bronze éclatant »33 s'expliquent par un composé de facture grecque *nwr<op< « à l'éclat puissant ». On partirait d'un *nwrov" « puissant » (<*(h2)n–or-ó-). Ce type rappelle fort cavroy et caropov" « au regard brillant ». On peut invoquer le tour caropo;n blevpein (Philostrat.) « avoir le regard vif ». Ici, le sème ojp< a bien son sens grec de « vision ~ apparence » (correspondant à l'abstrait o[yi"). L'existence d'un tel composé homérique infirme à coup sûr l'explication de drwvy par un étymon gr. com. **nr<wv È<" «au sens de « viril ». 8 *n-r-e-h3È-é/ós « inferior ». Cet étymon i.-e. représenterait un doublet « spatial » en *-h3-óÈdu type thématique *(é)ner-o- « inferior » (gr. e[neroi « les morts », tokh. A ñare « enfer ») connu surtout par le « comparatif » *(é)ner-tero- (gr. (ej)nevrteroi « les trépassés », ombrien nertru « sinistr–a »). En grec commun, ce type alternant *n-r-e-h3-óÈ-s, gén. *n-r-e-h3È-é/ós donnait quelque chose comme *nrwvÈ<", gén. *nrwÈ<ov", qui aboutit régulièrement au paradigme drwvy, drwpov". Cette reconstruction permettrait de poser un ancien locatif sur degré zéro de l'adjectif *(é)n-er-o-, soit un prototype de forme *n-r-e « en bas ».
3.3. les données sémantiques : peut-on reconstruire une phraséologie i.-e.?
Il ne fait pas de doute que le postulat d'un tel étymon soulève maints problèmes sémantiques. Les termes de cette famille désignent les morts qui sont sous terre, non les humains qui marchent sur la terre. De fait, le tokh. A ñare∑iñi « les habitants des enfers » (<tokh. Com. *n'ärae-syae- <*néro-sÚo-)34 répond pour le sens au gr. hom. (ej)nevrteroi ou à e[neroi « les trépassés ». La clef du problème tient dans l'étude du formulaire. Les hommes et les dieux sont toujours associés dans des formules contrastives, qui influent sur l'un des membres. En indo-européen, le couple « mortel » ~ « im mortel » était jadis de type *mortiÚo(véd. márt(i)ya-, av. ma◊÷siia-) ~ * ́ı-m®-to- (gr. a[mbroto", arm. an-mard).35 En grec et en arménien, l'ancien adjectif en *-tó- de forme *m®-tó- qui voulait dire « mort » a fini par signifier « mortel » (gr. hom. brotov", arm. mard « homme »).36 En grec homérique, ce couple s'est renouvelé avec l'opposition qnhtov" « mortel » (<*dÌıh2-tó-) ~ a_jqavnato" « immortel » (<* ́ı-dÌıh2-eto-).37 Sur un autre plan, le formulaire associant les hommes et les dieux repose sur une opposition « ciel » et « terre ». On sait que le nom indo-européen du « dieu » repose sur un dérivé d'appartenance, soit *deÚ‹-ó- « celui du ciel-diurne ». Cette désignation a été renouvelée en sanskrit : parmis les vingt-six synonymes possibles du mot devá-, l'Amarakośa offre divaukas-a÷h (1.1.14) « habitants du ciel » (analyser *diva-ók-as-) et divi-∑ad-a÷h (1.1.15.) « qui résident au ciel » (le que premier membre de composé est au locatif). Le grec homérique utilise en ce sens l'adjectif oujravnio" « céleste ». Il existe aussi des formes qui rappellent le lat. 34 Le traitement phonétique semble être celui du dialecte B. Pour l'étude du formulaire, consulter R. SCHMITT, 1967, pp.193-194. 36 Voir C. de LAMBERTERIE, « Sella, subsellium et meretrix », p. 245. 37 C'est là l'explication de B. VINE, 1998, pp. 66-68. 38 Voir en ce sens E. BENVENISTE, 1948, p. 117. 35 9 « HOMMES » « DIEUX » *dÌflÌem--ó(n) « qui vit sur terre » *(s)úp-er-o- « qui est au-dessus » *(é)n-er-o- « qui est en-dessous » *deÚ‹-ó- « qui est au ciel » Seul un double formulaire de ce type permet de rendre compte d'emplois non pas absolus (« sous terre ») mais contrastifs (« humain, terrien ») des prototypes *n-r-e-h3-óÈ-s « inferior » et *ıdÌ-r-e-h3-óÈ-s « inferior » ici posés pour rendre compte respectivement des formes grecques a[nqrwpo" et drwvy, qui contiennent manifestement le morphème *-h3-óÈdéjà grammaticalisé dans la période commune pour indiquer une position dans l'espace. Il s'agit toujours d'une position relative, formant contraste. De fait, un prototype *h2ıti-h3È-ó« qui apparaît en face » (sur l'adverbe i.-e. *h2ıtí « en face ») présente des affinités avec un dérivé en *-(t)ero-. Le sujet affecté par ce type de composé s'oppose à un autre sujet, pris comme point de référence fixe dans l'espace.39 La notion d'être en face de prédique un état relatif, qui s'exprime à l'aide d'un morphème contrastif. La notion de relative peut s'exprimer à l'aide d'une racine « voir » ou « apparaître », ainsi dans un tour comme lat. sptect–are in + acc. « regarder vers, être orienté vers » (Caes., B.G., I, 1, Belgaespectant in septemtrionem et orientem solem « la Belgique est orientée vers le Nord et vers l'Est »). Il est intéressant de faire intervenir les données italiques, qui offrent la typologie sémantique posée supra à titre d'hypothèse. L'osque possède un couple *supro- ~ *huntro« superior » ~ « inferior » (dat.-abl. pl. hu[n]truis Ve. 6, 7, acc. f. sgl. húnttram Ve 8 / Po 1). L'adjectif osque hu(n)tro- correspond à la préposition ombr. hondra « infra » (VIa 15). Pour ces faits, il faut partir d'un prototype it. com. *com-i-tero- (<*dÌflÌom-i-tero-) commutant avec un ancien superlatif *com-i-tamo- (<*dÌflÌom-i-t°mo-), reflété par l'ombr. *hondomo« infimus ».40 Cette formation de « superlatif spatial » est du type de lat. mari-timus. Il est notable que le positif n'en est autre que le lat. humilis « qui est à terre »41 lequel est sans doute un ancien *humilo- (<it. com.*com-i-lo- <i.-e.*dÌflÌom-i-ló-). En somme, le même adjectif sert à indiquer une position dans l'espace absolue ou bien relative : soit « qui est à terre » soit « inférieur » (par contraste avec un référent donné comme supérieur). Il peut en outre être fait mention du lit. ◊zẽmas « qui est en bas, vil, inférieur » (<*dÌflÌem-ó-), superposable pour le sens au lat. humilis. Le même adjectif peut donc signifier « inférieur, souterrain » et « terrien, terrestre, humain » (ainsi que le lat. *hem–o, v.-lit. ◊zmuõ « homme » <*dÌflÌ(e)m-ón-). Le phryg. *zemelo" (<*dÌflÌem-eló- « terrien, humain ») veut parfois dire « esclave ». La glose d'Hésychius zemelen : ajndravpodon, Fruvge" reflète sans doute un ancien vocatif. Cette forme est à présent corroborée par le néo-phryg. (dat. pl.) zemelw" « ajnqrwvpoi" » en néo-phrygien. Le dérivé *dÌflÌem-eló- « terrien, humain » est à rapprocher, pour la formation comme pour le sens, du lat. humilis et du gr. cqamalov" « vil, humble ». 39
Consulter en
ce
sens l'article de S. HAÜSLER, 2006, pp. 109-124. Ainsi J. UNTERMANN, 2000, pp. 320-322 et E. V ETTER, 1953, p. 38. 41 Noter l'opposition humiliores « les pauvres » : honestiores (~ potentiores) « les riches ». 40
3.4. prolongements phraséologiques
- les animaux et les hommes : Ainsi qu'il vient d'être évoqué, le vocabulaire institutionnel est contrastif : par rapport aux dieux, les hommes sont en bas, mais par rapport aux hommes, les animaux sont au ras du sol. Les positions sont relatives, et cela fait que l'homme, pris comme espèce par contraste avec les autres espèces, se caractérise par deux traits : la station verticale et une face tournée vers le ciel. Les animaux sont quadrupèdes et ont la face tournée vers le sol. Il y a de nombreuses traces de cette phraséologie. On connaît le passage de Platon, Rép. IX, 586 a, comparant les gens qui ne connaissent point la sagesse ni la vertu à des « bêtes qui regardent toujours en bas, courbés vers la terre » (boskhmavtwn divkhn kavtw ajei; blevponte" kai; kekufovte" eij" gh`n). Les textes latins évoquent souvent la même idée. 3.4.1. les données latines42 : Cic., Leg., I, 9, Nam (scil. natura) cum ceteras animantes abiecisset ad pastum, solum hominem erexit ad caelique <> conspectum incitauit. « Ne vois-tu pas que, que le dieu a dirigé les regards des hommes vers les astres et leur a formé un visage qui se dresse, tandis que les bêtes brutes, les oiseaux et autres fauves, il les jetait à terre, en une reptation paresseuse et répugnante ». On relève une série de correspondances : l'emploi constant du verbe –erig–o « dresser », la collocation –os sublîme, avec un doublet uult–us –erect–os / cels–os. Le bétail (pecora, pecud–es) est penché (pr–onus)43 et regarde vers la terre (spect–are terram). 3.4.2. une inscription d'Aśoka 44 : L'empereur Aśoka, sacré en Inde vers -260 avant J.-C., a fait graver des édits sur piliers de pierre, rédigés dans une langue vernaculaire : le prâkrit. Ces inscriptions sont utiles pour l'étude de la phraséologie, qui apparaît aussi figée que celle des inscriptions monumentales de Darius Ier à Béhistoun. Aśoka énumère ses bienfaits envers hommes et bêtes : 5 - dupada-catuppadesu pakkhi-v–alicalesu vividhe me anugga- # 6 -he kaTMe. « Aux bipèdes et aux quadrupèdes, aux oiseaux et aux habitants des eaux, j'ai accordé maintes faveurs ».45 La vieille formule bipèdes / quadrupèdes, qui s'exprime en védique par le couple púru∑a- / páśu- (homme / bétail) se retrouve associée à une phraséologie innovante, d'émergence toute indienne : pak∑-ín- « l'empenné » pour désigner l'oiseau, ainsi qu'une périphrase d'allure épique *v–ari-CAR-a- « qui habite les eaux, poisson (±skr. v–ari-c–ar-in-). La formule bipèdes / quadrupèdes existe en ombrien, avec le couple (dat. pl.) dupursus / peturpursus (VI b 10/11). Le contexte est de type propitiatoire, avec une tournure dupursus peturpursusfutu fons « qu'il soit favorable aux hommes et aux bêtes ». Ce même contexte se rencontre dans un hymne à Rudra, ṚV 1.114, 1c, yáth–a śám asad dvipáde cátu∑pade « en sorte qu'il y ait du bien-être pour l'homme et pour le bétail ».46 3.4.3. véd. púru∑a- « humain » : Il y a peut-être un ancien correspondant védique à la belle formule d'Ovide. Le nom latin du « visage » remonte à un prototype i.-e. *h3éh1-s nt. « bouche » (gén. sgl. *h3h1-és-os, reflété par hitt. i◊s-◊sa-a-a◊s /i◊s◊sa◊s/).47 Sur la foi du véd. púru∑a-, qu'il faut parfois scander avec 43
Noter le roman *pr–onic–are reflété par le fr. broncher. Edit sur pilier n°2 (colonne dite de Delhi-Topra). Pour le texte, consulter J. BLOCH, 1950, p. 162. 45 Noter le prâkrit du- (qui se retrouve dans l'ombr. du-pursus dans le lat. du-plus, ainsi que chez Aśvagho∑a). Remarquer le pronom atone me (=instr.), et la valeur de collectif du sgl. vividhe anuggahe « maintes faveurs ». 46 Pour l'étude détaillée de la formule en question, consulter C. WATKINS, 1995, p. 520 et p. 15). 47 Il faut poser un ancien neutre *h3éh1-s, loc. *h3h1-és (gén. *h3h1-és-os), sans doute de type archaïque posé sous la forme *CéC-s, *CC-és par K. STÜBER, 2002. Pour cette forme, voir discussion pp. 194-196. Consulter aussi J. SCHINDLER, 1975, pp. 259-267, et enfin S. SCHAFFNER, 2001, pp. 92 et sq. Très récemment, C. MELCHERT a renouvelé la question, en posant un type archaïque *oh1-s-, *éh1-s- avec voyelle initale (« Hittite Neuter s-Stemms », conférence prononcée à l'ÉPHÉ le 5 IV 2007). 44 12 une longue, p-úru∑a-, reflétant sans doute un indo-arien *p-úr∑a- (à rapprocher du p–ali posa), il semble possible de poser un ancien adjectif *p–ur∑á-, reflétant un composé i.-e. *p®-h3h1-s-ó« dont la face est tournée vers le haut ».48 Cette valeur du préverbe *p®- se retrouve dans le type *p®-sth2-ó- « hervorstehend » qu'on pose à l'origine du véd. p®∑TMhám « dos », lat. postis « poteau », germ. com. *furstaz (holl. vorst « faîte »). Le pluriel p ∑–a÷h désigne l'humanité. Notable est l'abstrait puru∑aka- nt. « la station verticale ». 3.4.4. bilan - une phraséologie i.-e. « hommes » vs « animaux » : « HOMMES » « ANIMAUX » « dont la face est tournée vers le ciel » lat. –os sublîme, uult–us cels–os / –erect–os / gr. a[nw ajnablevpein (Plat., loc. cit.) i.-e. *p®-h3h1-s-ó- (?) « dont la face est tournée vers la terre » lat. pr–onus / terram spectans, gr. kavtw blevpein, kekufovte" eij" gh`n i.-e. *ni-h3È-ó- « bipède » (i.-e. *du-péd- ~ *d‹i-péd-) ombr. dupursus skr. dvipádprâkrit dupada- « quadrupède » (i.-e. *Ètru-péd-) ombr. peturpursus skr. cátu∑padprâkrit catuppada- 4. appendix
: les mev r op
e" : 4.1.
le formulaire homérique
et tragique : A ce stade du développement, il semble difficile de ne pas évoquer le terme mevrope" qui est chez Homère une épithète de l'homme. Il n'y a rien à tirer de l'explication synchronique qui figure chez Hésychius, mevrope": a[nqrwpoi, diaŸ toŸ memerismevnhn e[cein thŸn fwnhvn « les hommes sont appelés mevrope" parcequ'ils ont une voix (o[pa) articulée ». 13 exempte de douleurs ». On devine une comparaison sous-jacente entre l'existence des dieux et celle des humains, qui est brève, chargée de douleurs et surtout mortelle. En semblable contexte, Euripide emploie le terme mevroy au sens de « simple mortel ». Dans Iphigénie en Tauride, le dieu Apollon siège sur son trépied d'or, « chantant aux mortels l'avenir, du fond du prophétique sanctuaire » (ejn ajyeudei` qrovnw/ # manteiva" brotw`n # qesfavtwn nevmwn # ajduvtwn (v. 1244-7). Il en a chassé Thémis. Pour venger sa fille, Gaïa dépêche alors à de nombreux mortels (polevsi merovpwn, v. 1264) des songes prophétiques.
4.2. que veut dire mevroy?
Il existe un héros Mevroy, roi mythique de Cos. Sa ville est d'ailleurs qualifiée de povli" merovpwn ajnqrwvpwn # (Hymne hom. à Ap., v. 42). Cette vieille formule n'était plus comprise (« une cité d'hommes terrestres »). On a réinterprété l'épithète comme un nom propre, faisant des « Méropes » les habitants de l'île de Cos, gouvernés par une sorte de roi éponyme. Or, il se trouve que ce roi Mevroy s'inscrit dans un mythe d'autochtonie : chez Stéphane de Byzance (s.u. Kw`"), il est dit expressément être « né de la terre » (gh<genhv"). Par ailleurs, pris comme nom d'espèce, le terme mevroy désigne le « guêpier » d'Europe (merops apiaster). Il pond ses oeufs dans une sorte de terrier selon Aristote, Hist. An. IX, 13, Tivktei deŸ periŸ e}x h] eJptaŸ uJpoŸ thŸn ojpwvran, ejn toi`" krhmnoi`" toi`" malakoi`": eijsduvetai d j ei[sw kaiŸ tevttara" phvcei". « Il pond en moyenne six ou sept oeufs, à l'approche de l'automne, dans les endroits escarpés où le sol est meuble : il s'y enfonce jusqu'à une profondeur de quatre coudées ». Ces quelques faits amènent à postuler un étymon *mevroy « inférieur, souterrain ». La divergence sémantique avec les emplois homériques s'expliquerait aisément par le jeu du formulaire contrastif : les hommes sont inférieurs aux dieux, sans pour cela qu'ils vivent sous la terre. En revanche, le même adjectif spatial *mevroy conservait son sens d'inférieur, de souterrain quand il ne désignait point les hommes par opposition aux dieux.
4.3. quelles sont les traces d'un étymon i.-e. *(e)n-er-h3-óÈ-s « inferior »? Le skr. naráka- ntr. « enfer » doit être la thématisation d'un ancien adjectif spatial dont le neutre était susceptible d'emplois adverbiaux, soit *nar-ák « en bas », qui serait du même type que p®thák « séparément », nyàk « vers le bas ». Il faut faire aussi mention du démon Náraka- m. (tué par Indra), lequel est parfois nommé Bhaumá- « fils de la Terre ». Ces faits requièrent un ancien adjectif athématique *nar--á\n (<*nar--á\nk-s), ntr. *nar-ák-, soit reflétant un dérivé i.-e. *(e)ner-h3-óÈ-s « tourné vers le bas, inférieur ». Par ailleurs, l'arménien possède toute une famille complexe avec i-nerk'-s (adv.) « dedans, à l'intérieur, au fond », nerk'-oy (adj.) « qui est en bas », i-nerk'-oy (prép. gouvernant le gén.) « au dessous ». Ce dernier fait couple antithétique avec i veray + gén. « au dessus ». Retenir enfin la préposition nerk'ew « sous, dessous » (qui rappelle, pour le suffixe, l'adv. ardar-ew « en vérité »), ainsi que l'adjectif nerk'in (gén. pl. nerk'noc') « intérieur, interne » et « bas, souterrain, inférieur » qui correspond aux adjectifs védiques du type de nîc ́îna- « tourné vers 14 le bas, inférieur » 50 et peut-être à l'hom. JUperivwn, dont la flexion ancienne devait comporter un degré zéro de type * JUperi`no" (<*uperi-h3-ó(n), *uperi-h3n-é/ós), soit avec suffixe de Hoffmann.51 Il reste ce possible de rapprocher les adjectifs grecs en <i±nov" et le type de lat. supernus (<*(s)up-er-inó-), superposable à l'arm. ver-in « supérieur ».52 Sur le plan sémantique, on retiendra les deux sens fondamentaux de « intérieur » et « inférieur », qui rappellent la double distribution sémantique de l'adverbe i.-e. *(é)ni « dans » et « en bas » (gr. ejnevqhke « il déposa » qui est le cognat du véd. ní DHAE- « déposer, cacher »).53 La locution adverbiale i ners « dedans » repose sur un type *(é)n-er-o- (± gr. e[neroi). Selon MEILLET (1936, p. 32), pour ner- « à l'intérieur », il faut partir d'un ancien locatif de forme *(é)n-er-eÚ ou *(é)n-er-oÚ. Pour le sens, la forme arménienne correspond au véd. ántara- « intérieur » (<*én-ter-o-). On a évoqué l'idée que le -k'- de l'arm. *nerk'(o)- pouvait correspondre à la vélaire du véd. áp–ak.54 Ce qui revient à rapprocher le type suffixal i.-e. en *-h3-óÈ-s. Il faudrait admettre une forme thématisée, soit quelque chose comme *ner–oÈ-ó-s (<*n-er-o-h3È-ó-) « inferior » du type de lat. fer–ox « féroce, d'aspect sauvage » en regard de ferus « sauvage ». Cet étymon *n-er-o-h3È-ó- donnait un proto-arm. *neruk'(o)- avec syncope régulière du -u- prédésinentiel au génitif *ner(u)k'oy (phonétiquement, la structure est la même que pour le type manuk, gén. mank-an « homme »). Le proto-armén. *neruk'(o)équivaudrait donc virtuellement à un gr. **nerwpov" « inférieur ». La locution i nerk'-s doit s'expliquer par un croisement de i ners et de nerk'-oy (en toute rigueur, en ancien accusatif / locatif pluriel serait **i neruk's, avec maintien du -u-). Par ailleurs, il n'est pas absolument exclu que le -k'- soit ici une formation suffixale de date arménienne, à l'instar du type *artak'(o)- « dehors », qui est l'élargissement d'un ancien adverbe art « dehors » (altération de *arc reflétant un ancien locatif *h2éfl-re/oÚ « aux champs »).55 En tous cas, il semble totalement exclu de partir d'un étymon *ner-t‹o- (contra B. OLSEN, 1999, p. 467, note 559), et ce, pour plusieurs raisons : d'abord, le suffixe i.-e. *-t‹o-m fournit des abstraits neutres (tels que véd. bhr–at®-tvá- ± v.-sl. bratrïstvo « fraternité », śatru-tvá- « inimitié», et, en sanskrit classique, un dérivé délocutif comme aham-uttara-tva- « désir de prééminence »). Ces formations n'indiquent jamais une position l'espace. Par ailleurs, un prototype de forme *ner-t‹o- uel sim. aboutirait immanquablement à un proto-arménien *ner-k‹o- qui eût donné arm. **nerg (comparable à l'arm. erg « chant » issu de i.-e. *h1érÈ-e/os-). On attendrait un dérivé en *-tn-o- (cf. skr. adhas-tana- « inférieur » et upari-tana- « supérieur » fort proche du lat. supernus - les deux formes reposant sur i.-e. *uper-i-[t]-n-o-). 50 Voir A. MEILLET, 1898, pp. 274-282, § II. Pour l'état de la question, voir C. de LAMBERTERIE, 1999 [2000], pp. 79-108 s.u. jUperivwn. Pour le suffixe de Hoffmann, consulter les récents travaux de G.-J. PINAULT (2000 et 2001). 52 C'est là la thèse de B. O LSEN, 1999, pp. 466-468. 53 Ces précisions nous ont été signalées par C. de LAMBERTERIE, dans sa Conférence à l'ÉPHÉ du 19 I 2005. Il devient dès lors impossible de poser i.-e. †h1éni car on aurait en ce cas une prothèse vocalique sur *R(z). 54 A. MEILLET, 1962, pp. 5-157 (p. 34). Dans cette page brillante, l'auteur propose de rapprocher le groupe de nk'ołim « je dépéris » du skr. nîcá- « inférieur ». Il faut en ce cas poser un ancien adjectif *nik' « dégradé » (<*ni-h3È-ó-), ou peut-être un ancien substantif *nik' « consomption » d'où procèdent un dénominatif *nk'el « exténuer, faire dépérir » et un nom-d'agent *nk'oł. 55 De même, ainsi que me l'a indiqué D. PETIT, le lituanien la ũkas « champ » fournit un adverbe laukè « dehors » (en propre, ancien locatif adverbialisé). 51 4.3. de quelques emplois d'arm. nerk'oy et i nerk'oy : Synchroniquement, le type nerk'oy (<*ner–oÈ-ó-sÚo) est un génitif thématique, du type de mard, gén. mardoy « homme » (<*m®-tó-sÚo), cognat exact d'hom. brotoi`o. Avec le syncrétisme des cas obliques, ce cas revêt la valeur d'un ancien ablatif. Une autre possibilité serait d'y voir un adjectif dérivé en *-sÚo- du type de celui reflété par le tokh. A ñare∑i « e[nero" » (<tokh. Com. *n'ärae-syae- <*n-ér-o-sÚo-). Fait notable, nerk'oy est susceptible d'être employé comme adjectif. La locution i nerk'oy s'oppose à i veray dans le fameux passage de la Genèse, I, 7, ew anÏrpeteac' Astuac i m–eÏ Ïroyn or i nerk'oy hastatut'ean-n ew i m–eÏ Ïroyn or i veray hastatut'ean-n « kaiŸ diecwvrisen oJ qeoŸ" ajnaŸ mevson tou` u{dato", o} h|n uJpokavtw tou` sterewvmato", kaiŸ ajnaŸ mevson tou` u{dato" tou` ejpavnw tou` sterewvmato" ».56 « et il sépara les eaux qui sont sous le firmament d'avec celles qui sont au-dessous du firmament ». La forme veray ne saurait reposer sur autre chose que sur un étymon *úp-er-eh2-sÚo« situé en haut » qui répond - au s mobile près - au lat. super–arius (mot de glossaire). Les dérivés de ce type fournissent au grec des adjectifs proparoxytons ou propérispomènes indiquant une position dans l'espace : noter, chez les tragiques, qurai`o" « étranger » (<*dÌur-éh2-sÚo-), soit « qui est à la porte, extérieur ». Le sens spatial est fort net pour eJdrai`o" « sédentaire » ainsi que pour eujnai`o" « qui est au gîte ». On observe enfin des formations hypostatiques, comme par exemple ejpipovlaio" (<*ejpiŸ polh`") « qui se trouve à la surface ». La langue offre même un dérivé mesai`o", doublet expressif de mesov".57 5. une dérivation morphologique analogue : gr. euj r wpov ", véd. *urvàñc- : L'hom. eujrwpov" « vaste » doit être le réarrangement thématique d'un plus ancien *eujru<wvy qui a sans doute été « dactylisé » en *eujrÛwp<. śáÓ na ur–uc ́î bhavatu svadh-ábhi÷h « propice nous soit (la terre) qui s'étend au loin avec ses autonomies ».60 Il s'agit d'une désignation du type de véd. p®thiv ́î f. « la vaste (terre) » (<*p¬t-h2-‹-íh2) rapproché du toponyme Plavtaia. 61 En grec, la formule eujrei`a cqwvn # (D 182) « la vaste terre » se superpose au véd. k∑-ám urv ́îm (*V 6.17, 7a). On peut envisager, pour véd. ur–uc ́î « la vaste », un étymon i.-e. *‹°rH-u-h3È-íh2. Ce type commutait sans doute avec un masculin athématique *‹°rH-u-h3-óÈ-s « d'aspect vaste, immense ». Le grec eujrwpov" reflète le réarrangement et la dactylisation d'un athématique *eujruvwy. Il faut peut-être voir dans les clausules homériques eujruvopa Zh`n # (Q 206 et X 265) une désignation du vaste ciel,62 qui répondrait à une formule védique *dy-ám urvàñcam « le ciel immense ». L'accusatif masculin singulier urvàñcam (c'est-à-dire *uruáñcam avec hiatus) se déduit sans peine de *V 5.1, 12b, div ́îva rukmám *uru.áñcam aśret « comme on fixe au ciel le joyau d'or qui s'étend au loin ».63 La scansion requiert de poser *uruáñcam aśret ( ̆ ̆ | ̄ ̆ ̄ ̄ | ) comme second hémistique de cette tri∑TMubh védique (soit 5+6 = 11 syllabes). Il faut donc corriger le textus traditus, qui porte uruvyáñcam. Il y a eu transfert de l'épithète du « ciel-diurne » au « soleil » (de même qu'en grec, l'épithète eujruvopa a fini par s'appliquer au soleil). Le sens en est manifestement « qui se voit de loin, vaste, immense ». Le matériau formulaire sous-jacent serait directement restituable en indo-européen : on poserait un accusatif masculin singulier *‹°rH-u-h3óÈ-Ó dÚ-ém « le vaste ciel » (grec commun *(ej)Ûruv.oÈ-÷n d¥h`n ± indo-arien *(v)uru(H)á(ñ)c-am dy-ám). 6. bilan : Si l'on se range aux vues de cette étude, on verra désormais dans le gr. a[nqrwpo" une désignation de l'homme du commun qui n'a rien à faire avec tout le groupe de ajnhvr « homme-fort, seigneur », mais repose sur un ancien adjectif indiquant une position dans l'espace *ıdÌ-r-e-h3-óÈ-s, génitif *ıdÌ-r-e-h3È-é/ós « inférieur » contenant le vieux nomracine *-h3-óÈ- à valeur de morphème dérivationnel. Le type drwvy « homme », sortant de sa clandestinité, pourrait s'expliquer de même par un étymon i.-e. *n-r-e-h3-óÈ-s. L'explication de véd.
| 56,000
|
01/tel.archives-ouvertes.fr-tel-01564138-document.txt_5
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 7,452
| 10,699
|
99. Quant à la première circonstance, on a vu que le mécanisme obligatoire de nomination d'un administrateur est l'un des éléments-clé de la plupart des pays adoptant un système de succession aux biens, tels que les États de common law comme le Royaume-Uni ou l'Irlande. Or, ces derniers n'ayant pas, à ce stade, adhéré au Règlement211, l'article 29 perd une grande partie de son intérêt, attendu que les juridictions de ces pays ne pourront pas lui donner application212. Qui plus est, cette disposition ne peut être invoquée non plus par les autorités autrichiennes à travers le mécanisme du « Einantwortung », étant donné que cette procédure ne prévoit pas, pour la transmission de la succession, la nomination d'un administrateur mais le prononcé d'une décision constitutive du tribunal213. Cela comporte donc que même la deuxième hypothèse envisagée par l'article 29 (c'est-à-dire le cas où la nomination d'un administrateur n'est pas une règle impérative mais, en cas de demande, celle-ci ne peut pas être refusée), les juridictions autrichiennes ne pourront pas se prévaloir de cette disposition, leur procédure ne prévoyant pas l'investiture d'un administrateur ou d'un exécuteur. 100. Non moins problématique est la deuxième condition, relative à la distinction entre la loi successorale et la loi du for : le cas le plus fréquent sera sans aucun doute celui où le de cujus résidait habituellement dans un État membre et, en vertu de la professio juris prévue à l'article 22 du Règlement, a opté pour la loi du pays de sa nationalité pour régir la succession (qu'il s'agisse de la loi d'un autre État membre ou de celle d'un État tiers)214. Cependant, comme on va voir, cette dissociation pourrait être évitée - et donc l'application 211 Ce qui est précisé par le considérant 82 : « conformément aux articles 1 er et 2 du protocole n o 21 sur la position du Royaume-Uni et de l'Irlande à l'égard de l'espace de liberté, de sécurité et de justice, annexé au traité sur l'Union européenne et au traité sur le fonctionnement de l'Union européenne, ces États membres ne participent pas à l'adoption du présent règlement et ne sont pas liés par celui-ci ni soumis à son application. Cela s'entend toutefois sans préjudice de la possibilité, pour le Royaume-Uni et l'Irlande, de notifier leur intention d'accepter le présent règlement après son adoption conformément à l'article 4 dudit protocole ». 212 En ce sens P.WAUTELET, op. cit., p. 457. 213 v. B.DUTOIT,
Perspective
s
comparativ
es
sur la succession ab
intestat,
in Le droit des successions en Europe
-
Act
es du colloque du 21 février 2003, Comparativa, 2003, pp. 14 ss. 214 Déjà lors de la proposition de la Commission, afin d'éviter la dissociation entre le for et le jus, il avait été envisagé de limiter la portée de la professio juris seules questions relatives à la dévolution de la succession, celles concernant l'administration faisant l'objet d'un rattachement séparé (v. A.BONOMI, Les successions, op. cit., p. 339, note 1013 ; A.DAVI, L'autonomie de la volonté en droit international privé des successions dans la perspective d'une future réglementation européenne, dans Riv. dir. int. priv. proc., 2004, pp. 473-498 64 de l'article 29 bloquée - de deux manières : d'abord à travers le jeu des accords d'élection du for prévus par le Règlement à l'article 5 ; en alternative, à défaut d'accords, par un déclinatoire de compétence effectué, à la demande de l'une des parties, en vertu de l'article 6 du Règlement. 101. Resterait alors une seule hypothèse dans laquelle l'article 29 semblerait pouvoir entrer en jeu : il s'agit de la situation décrite à l'article 10 du Règlement 215, dans laquelle le défunt résidait dans un État tiers mais possédait tous ou partie de ses biens dans un État membre. En effet dans ce cas216, ni la clause d'élection de for, ni le déclinatoire de compétence ne pourraient trouver application, ce qui implique que les parties concernées par la succession n'auraient aucun titre à s'opposer à la règle dérogatoire de l'article 29. Dès lors, si l'État membre dont la juridiction est saisie en vertu de l'art. 10 prévoit un mécanisme de nomination obligatoire d'un administrateur ou exécuteur de la succession, cette autorité va pouvoir y procéder pour la transmission et l'administration de tous les biens successoraux se trouvant sur le territoire national, alors même qu'une telle procédure est méconnue à la loi successorale. Cependant, compte tenu des systèmes d'administration de la succession présents dans les États membres actuels et de la non adhésion du Royaume-Uni et de l'Irlande au Règlement, il est difficile d'imaginer que la situation à peine décrite puisse concrètement se réaliser.
β) Les lois de police de l'État de situation des biens : l'art. 30 du Règlement 102.
L'art. 30 du Règlement, qui recueille la règle prévue à l'art. 15 de la Convention de La Haye de 1989, dicte un régime spécial pour les hypothèses où la loi de situation « de certains biens immobiliers, certaines entreprises ou d'autres catégories particulières de biens » comporte des dispositions successorales particulières « en raison de leur 215 v. supra n°65 et
. 216 P.WAUTELET, op. cit., p. 458. destination économique, familiale ou sociale » et que celles-ci sont applicables « quel que soit la loi applicable à la succession ». Ainsi formulée, cette règle constitue donc une véritable dérogation au rattachement unitaire émanant du précité art. 21, puisque certains biens successoraux seront soumis à une loi différente de la loi successorale, provoquant de cette manière une inévitable scission de la succession. C'est pourquoi, l'art. 30 ne vise que certaines dispositions matérielles dérogeant au droit commun des successions et n'autorise donc pas les États membres à faire application, de manière générale, de leurs lois d'application immédiate217. De plus, cette règle ne peut entrer en jeu que si ces dispositions ont un impact direct sur un bien ou une catégorie de biens faisant partie de la succession, ce qui implique, par conséquence, que toute autre disposition impérative de droit interne (par exemple celles limitant la capacité successorale de certaines catégories de personnes) n'ont pas vocation à s'appliquer en vertu de l'art. 30 du Règlement puisqu'elles auraient un impact non pas sur les biens successoraux, mais directement sur la personne des héritiers218 103. De plus, pour justifier l'application de l'art. 30 les dispositions visées doivent comporter des restrictions concernant la succession ou avoir une incidence sur celle-ci. Dans la première catégorie, il s'agira par exemple d'une disposition nationale qui interdit de participer à la succession en relation à certains biens, ce qui pourrait être le cas de certaines interdictions qui empêchent aux ressortissants étrangers de posséder des terrains dans les zones proches d'une côte ou d'installations militaires219. Quant à la deuxième catégorie, c'est-à-dire les dispositions ayant une e sur la succession, c'est le cas notamment des droits nationaux qui prévoient des mécanismes « d'attribution préférentielle », à savoir des mécanismes permettant que certains biens successoraux soient transmis dans un ordre particulier de dévolution de la succession220. 217 Une telle solution avait été proposée par A.DUTTA (Succession and Wills, op. cit., p. 547), puis reprise par le Max Planck Institut dans son commentaire critique à la proposition de Règlement (op. cit., pp. 644 et s.). 218 En ce sens P.WAUTELET, op. cit., p. 470, n° 4 et s. 219 Idem, p. 472, n° 8.
Notons de plus que dans ces situations il est fort probable que la question de l'ordre public soit posée, ces dispositions pouvant être jugées contraires au principe d'égalité dans la succession. 220 Ce mécanisme est bien illustré par le droit français qui prévoit, par exemple, des attributions préférentielles par voie de partage en matière d'exploitation agricole (art. 831 du Code civil), ou encore, à l'art. L. 411-34 du Code rural, comme modifié d'abord par la loi du 23 décembre 2006 et récemment par la loi du 13 octobre 2014, la prévision que le bail continue au bénéfice du conjoint survivant ou du partenaire. La qualification successorale de ces mécanismes en droit international privé national n'est toutefois pas 66 104. Une dernière condition est enfin posée par l'art. 30, celle que les dispositions visées doivent bénéficier d'un statut particulier dans le pays qui les prévoit. Dès lors, dans cette hypothèse, tout État membre est tenu à préférer l'application des règles spéciales dictées par la loi de situation des biens à celles prévues par la lex successionis, ce qui permet de qualifier ces dispositions comme « lois de police » ou « loi d'application immédiate 221». 105. Or, puisque en général c'est le même État qui les a édictées à établir si elles doivent être qualifiées comme lois de police ou non, se pose le problème de déterminer quand une disposition de droit interne constitue une loi d'application immédiate. Une telle opération ne sera toutefois pas toujours facile, compte tenu que la qualification de certaines de ces règles n'est souvent pas établie de manière unanime dans le droit interne. Ainsi, la qualification de lois de police des règles d'attribution préférentielle continue à former l'objet de vifs débats en France222, où seulement en 2012 la Cour de Cassation a précisé que la prévision d'une attribution préférentielle d'une exploitation agricole peut être ainsi qualifiée223. La Cour de Justice de l'Union européenne devra donc veiller sur leur application, afin d'éviter le risque d'un possible abus par les États membres. retenue par l'ensemble de la doctrine ; en faveur de cette solution P.LAGARDE, Successions, op. cit., p. 19, n° 151, pour qui, s'agissant d'une question relative au partage successoral et dans un souci d'éviter « un morcellement supplémentaire de la dévolution », la qualification successorale devrait l'emporter ; contra H.PEROZ-E.FONGARO, Droit international privé patrimonial de la famille, Paris, Lexis-Nexis Litec, 2010, p. 245, qui estiment que cette question relève non pas de la loi successorale mais de la loi du contrat de bail. 221 Les lois de police sont prévues par la plupart des autres règlements européens en matière de conflits de lois. C'est le cas par exemple de l'art. 9 du Règlement « Rome I » et de l'art. 16 du Règlement « Rome II ». Il est cependant intéressant de noter qu'à la différence du Règlement « Rome I », qui exige que les dispositions constituant des lois de police ne puissent pas faire l'objet d'une dérogation par accord, cette même condition n'est pas prévue, du moins explicitement, par l'art. 30 du Règlement n°650/2012. 222 v. notamment H.PEROZ-E.FONGARO, Droit international privé patrimonial de la famille, op. cit., p. 246 ; v. aussi sur ce thème S.BILLARANT, Le caractère substantiel de la réglementation française des successions internationales. Réflexions sur la méthode conflictuelle, Dalloz, 2004, pp. 296 et s. 223 Cass. civ. 1ère, 10 octobre 2012, pourvoi n°11-18345 (en l'espèce, il s'agissait de l'application de l'art. 832 du Code civil relatif à l'extension de l'attribution préférentielle de l'exploitation agricole. À cet égard, la Haute juridiction statué que « [] les règles relatives à l'attribution préférentielle sont, en raison de leur destination économique et sociale, des lois de police de sorte qu'ont vocation à s'appliquer celles que fixe la loi du lieu de situation de l'immeuble ». 67 e) La rupture de l'unité dans la loi applicable
106.
L'unité de la compétence judiciaire et législative est certes un avantage pour le règlement d'une succession internationale. Or, dans certaines hypothèses, celle-ci doit céder la place à l'application d'une loi autre que celle de la dernière résidence habituelle du défunt.
α) Le ren
voi : l'art. 34 du Règlement 107. Né dans le domaine des successions avec le célèbre arrêt « Forgo », le renvoi a été fermement condamné dans la proposition de Règlement du 2009, dont l'art. 26 statuait que « Lorsque le présent règlement prescrit l'application de la loi d'un État, il vise les règles en vigueur dans cet État à l'exclusion des règles de droit international privé ». Cette condamnation s'expliquait principalement pour une raison : créer une incertitude quant à la loi applicable à la succession, ce qui était contraire à l'objectif de prévisibilité du Règlement, et 'aboutir à une scission de la masse successorale, ce qui est en contradiction avec le principe d'unité consacré par le nouvel instrument européen224. 108. Pourtant les avantages de ce mécanisme ne sont pas négligeables ; en effet, comme analysé supra (n°13 et s.), le renvoi est non seulement admis dans la plupart des droits nationaux, européens et non, mais il est également prévu dans certains textes internationaux, notamment dans la Convention de La Haye de 1989 sur la loi applicable aux successions. La raison de cette admission est simple : en dépit de ces effets négatifs, cet « expédient », comme l'avait ainsi qualifié Ph. Francescakis, permet en effet de parvenir à une uniformité internationale des décisions, en évitant l'application d'une loi successorale étrangère l'autorité du for225. 109. Conscient de ces avantages, le législateur européen a finalement introduit la 224 Il convient de rappeler que ce même souci de morcellement de la succession a justifié l'approche adoptée par la Cour de Cassation dans l'arrêt « Riley » de 2009 (v. supra n°16) qui a admis le renvoi de la loi de la situation de l'immeuble à la loi nationale du défunt à la seule condition que ce mécanisme permette l'unité de la succession. 225 En ce sens A.BONOMI, Droit européen des successions, op. cit., p. 510, n°2. 68 possibilité d'avoir recours au renvoi dans le but, comme l'indique le considérant 57, de « garantir une cohérence au niveau international ». L'art. 34, par. 1er, du Règlement dispose ainsi : « Lorsque le présent règlement prescrit l'application de la loi d'un État tiers, il vise l'application des règles de droit en vigueur dans cet État, y compris ses règles de droit international privé, pour autant que ces règles renvoient : a) à la loi d'un État membre ; ou b) à la loi d'un autre État tiers qui appliquerait sa propre loi ». 110. Dès lors, le principe d'unité de la succession peut être abandonné en deux hypothèses : d'abord en cas de renvoi au premier degré, lorsque la loi d'un État non lié par le Règlement renvoi à la loi d'un État membre. Ainsi, prenons le cas d'un français qui est décédé au Maroc où il avait sa dernière résidence habituelle ; les règles de conflits marocaines renvoient à la loi française en tant que loi nationale du défunt, ce qui implique donc que par le jeu du renvoi la succession sera régie par la loi française, qui accepte de s'appliquer, et non pas par la loi marocaine, en évitant de telle sorte l'application d'un droit étranger qui peut parfois se fonder sur des valeurs et des principes qui sont éloignés de ceux prévalent dans la plupart des États membres226. 111. Il convient en outre de noter qu'en relation à cette première hypothèse l'art. 34 ne précise pas que la loi de l'État tiers renvoi à la loi du for, mais à la seule loi de l'État membre. Il s'ensuit donc que, dans ce dernier cas de figure, la juridiction saisie pourrait ne pas appliquer les règles de droit successoral internes, mais celles d'un autre État membre. Ainsi, prenons l'hypothèse d'un ressortissant italien qui décède en Australie en laissant des biens en France et en Italie. En vertu de l'art. 10, par. 1, point a), du Règlement, les juridictions italiennes sont compétentes puisque le défunt avait bien la nationalité de ce pays et qu'une partie des biens successoraux y sont situés. La loi australienne, loi de la dernière résidence habituelle du défunt, renvoie à la loi italienne pour les immeubles situés en Italie à la loi française pour les immeubles situés en France. Conséquemment, les autorités italiennes n'appliqueront pas leur seule loi interne, mais devront aussi tenir compte du renvoi effectué par la loi australienne au droit français, qui devra donc être appliqué pour les biens situés en France. Certes, dans cette situation 226 Notamment lorsque la loi étrangère est celle de pays qui adoptent ou sont influencés par le droit de la sharia; dés lors, dans ces hypothèses, le droit du conjoint survivant pourrait subir une réduction du fait des discriminations entre le mari et la femme, ou encore la succession testamentaire pourrait être paralysée à cause de la question religieuse. 69 les autorités du for sont obligée d'appliquer une loi différente de celle interne avec les possibles difficultés et coûts qui en dérivent. Néanmoins, compte tenu des mécanismes de coopération judiciaire désormais en vigueur entre les pays membres, ainsi que de la communion de valeurs et principes qui caractérise l'Union européenne, il est possible d'affirmer que non seulement l'application de la loi d'un autre État européen est généralement plus accessible et facile à mettre en oeuvre que celle d'un État tiers, mais aussi que le risque que cette loi soit contraire à l'ordre public, et donc inapplicable, est réduit227. 112. Le deuxième cas de renvoi prévu à l'art. 34, par. 1, point b), se produit en revanche lorsque la loi de l'État tiers désignée par le Règlement renvoie à la loi d'un autre État tiers. Dans cette hypothèse, à l'instar de la règle adoptée par la Convention de La Haye de 1989 ainsi que par certains systèmes nationaux228, ce renvoi au deuxième degré ne s'applique que si la loi du deuxième pays l'accepte à son tour. Dès lors, cette solution semblerait exclure la possibilité d'un renvoi au troisième ou quatrième degré, hypothèse qui n'est certes pas fréquente dans la pratique mais qui pourrait éventuellement se produire si la loi désignée par le Règlement renvoie à la loi d'un autre État qui a son tour renvoie à la loi d'un quatrième État. Quid dans ces situations? Le Règlement ne donne aucune réponse à cet égard, cependant certains auteurs suggèrent d'admettre le renvoi multiple dans ce genre d'hypothèses lorsque ce mécanisme garantit de parvenir à l'uniformité des dé 113. Le jeu du renvoi est enfin écarté dans un certain nombre de cas, énumérés à l'art. 34, par. 2 du Règlement. Il s'agit d'abord de l'hypothèse où la loi applicable à la succession, à titre exceptionnel, est celle du pays avec qui le défunt avait des liens manifestement plus étroits (art. 21, par. 2, du Règlement). La raison de cette exclusion s'explique essentiellement par le caractère flexible de cette disposition, fondée, comme on a vu, sur un principe de proximité. Si donc la loi d'un État tiers est considérée comme étant plus proche du de cujus, cette appréciation ne peut pas être remise en cause par l'application 227 A.BONOMI, Droit européen des successions, op. cit., p. 516, n°15 228 Cf. par exemple l'art. 13 de la loi italienne de droit international privé (supra n°25). 229 En ce sens A.DAVI, Le renvoi en droit international privé contemporain, in Recueil des cours, t. 352, 2012, p. 350 70 du renvoi et donc des règles de conflit de cet État230. 114. Cet instrument est de plus exclu dans le cas où le défunt avait choisi la loi applicable à la succession (art. 22), solution qui est cohérente avec la faveur pour l'autonomie de la volonté poursuivie par le Règlement, ainsi que dans la détermination de la loi applicable aux dispositions à cause de mort (art. 27), à la forme de l'option successorale (art. 28, point b) et dans le domaine des restrictions concernant la succession portant sur certains biens (art. 30). Dans ces hypothèses le renvoi n'entrera donc pas en jeu, ce qui évite ainsi, notamment en ce qui concerne la loi applicable à la forme des actes, que ce mécanisme puisse compromettre l'objectif du Règlement de favoriser la validité formelle de ces documents231. 115. Cette analyse générale sur la mise en oeuvre du principe de l'unité de la succession dans les deux domaines de la compétence judiciaire et de la loi applicable démontre ainsi que, en dépit de quelques atteintes, le critère unitaire maintient son emprise sur le règlement successoral. Dès lors, face à la prépondérance du régime de l'unité, il devient de plus en plus nécessaire de permettre aux volontés privées, in primis au défunt, de bénéficier d'une certaine autonomie dans la planification de la succession. Le Règlement de 2012 répond à cette exigence par le biais d'un certain nombre d'instruments, certains s'appliquant à la loi successorale, d'autres à la compétence judiciaire. 2. L'autonomie de la volonté
116. La faveur pour l'autonomie de la volonté, consacrée dans la Convention de La Haye de 1989 sur les successions à cause de mort, a eu un impact certain sur le Règlement n°650/2012. La construction d'un espace européen de sécurité, liberté et justice nécessite en effet non seulement que la succession transfrontalière soit régie, dans son ensemble, par une seule 230 Il convient toutefois de noter que l'exclusion du renvoi dans cette hypothèse ne signifie pas que le contenu des règles de rattachement de l'État « plus proche » ne doit pas être pris en compte. Au contraire, ces éléments pourront être considérés par la juridiction pour déterminer l'existence de liens manifestement plus étroits (de cet avis A.DAVI, Le renvoi en droit international privé contemporain, op. cit., p. 133). 231 F.M. WILKE, Das internationale Erbrecht, op. cit., p. 608 71 loi appliquée par une même juridiction, mais aussi que chaque citoyen soit en mesure d'organiser à l'avance la destination de son patrimoine successoral. Cette autonomie est d'ailleurs bien connue dans de nombreux droits nationaux, certains reconnaissant au de cujus la possibilité de prendre des dispositions à cause de mort, voire même, dans quelques pays, de conclure des pactes successoraux, d'autres lui autorisant, de manière plus ou moins encadrée, de choisir la loi applicable à la succession. Ces facultés ont ainsi été reprises par le Règlement qui, dans son objectif d'harmonisation, s'est prononcé d'une part sur les lois applicables aux dispositions à cause de mort, d'autre part sur les modalités d'exercice de la professio juris ainsi que sur son impact sur la détermination de la juridiction compétente232. a. Les dispositions mortis causa
117. Les articles 24 à 27 du Règlement prévoient un régime spécial en matière de dispositions à cause de mort. Les premiers deux articles déterminent la loi applicable à la recevabilité, à la validité au fond et à certains effets des testaments, des pactes successoraux et d'autres dispositions mortis causa, tandis que les deux autres (26 et 27) définissent l'un (l'art. 26) la portée de la validité au fond de ces dispositions, l'autre (l'art. 27) les questions rentrant dans la validité formelle des dispositions de dernière volonté. α. Les dispositions à cause de mort différentes des pactes successoraux : les articles 24, 26 et 27 du Règlement 118.
L'art. 24, comme sa rubrique l'indique, contient des règles spécifiques aux « dispositions à cause de mort autre que les pactes successoraux ». Contrairement à la plupart des autres dispositions, celle-ci n'a été introduite que pendant la procédure d'adoption du Règlement qui s'est ainsi rallié à l'opinion d'une partie de la doctrine, L'importance de la professio juris a d'ailleurs été soulignée lors de l'une des dernières rencontres organisées par le CNUE à Paris le 22 octobre 2016, au cours duquel les participants ont incité les États tiers ne connaissant pas cette institution à la reconnaître ou à tout le moins à respecter les effets attachés à l'autonomie de la volonté dans un souci d'harmonisation globale (source www.notaries-of-europe.eu). 232 72 notamment l'allemande233, contraire à l'approche suivie dans la proposition de 2009 qui n'avait prévu des règles spéciales que pour les pactes successoraux (art. 18 de la proposition), alors que la validité, l'interprétation, la modification et la révocation des autres dispositions à cause de mort étaient soumises à la lex successionis234. Le Règlement a finalement opté pour la solution préconisée par plusieurs commentateurs, en étendant les règles spécifiques dictées pour les pactes successoraux aux autres dispositions de dernière volonté. 119. Avant d'analyser ces règles spéciales, une remarque préliminaire s'impose : l'art. 24 du Règlement vise les dispositions à cause de mort « autre que les pactes successoraux », ces derniers étant régis par l'art. 25. Or, étant donné les dispositions à cause de mort sont définies par l'art. 3, par. 1er, point d) du Règlement comme « un testament, un testament conjonctif ou un pacte successoral » et que ce dernier est à son tour décrit à l'art. 3, par. 1er, point b) comme « un accord, y compris un accord résultant de testaments mutuels, qui confère, modifie ou retire, avec ou sans contre-prestation, des droits dans la succession future d'une ou de plusieurs personnes parties au pacte », il en découle que l'art. 24 ne s'applique qu'aux dispositions de dernière volonté ne résultant pas d'un accord entre les personnes intéressées. Il s'agira donc essentiellement des testaments, à l'exception, comme indiqué, des testaments mutuels dérivant d'un accord et qui, étant considérés comme des pactes successoraux, sont soumis au régime prévu à l'art. 25 du Règlement235. 120. L'art. 24 dicte une série de règles gouvernant « la recevabilité et la validité au fond » des dispositions mortis causa autres que les pactes successoraux. Quant à la première 233 v. notamment P.KINDLER, Vom Staatsangehörigkeits-zum Domizilprinzip: das künftige internationale Erbrecht der Europaischen Union, in IPrax, 2009, p. 47; dans le même sens Max Planck Institut, n° 153; contra A.BONOMI in A.BONOMI-CH.SCHMID (sous la direction de), Successions internationales. Réflexions autour du futur règlement européen et de son impact pour la Suisse, Zurich, Schulthess, 2010, p. 59 234 Solution qui reprenait les dispositions prévues dans la Convention de La Haye de 1989 sur les successions à cause de mort. 235 Dans la mesure où l'art. 24 ne se réfère qu'aux dispositions à cause de mort sans en préciser le contenu, certains Auteurs (v. notamment A.BONOMI, Droit européen des successions, op. cit., p. 378, n°6 ainsi que ses observations critiques quant à cette interprétation) ont considéré que cette règle spéciale ne s'applique qu'à la recevabilité et à la validité au fond des testaments, alors qu'en relation à l'admissibilité et à la validité des dispositions contenues dans ces actes, la loi compétente resterait la lex successionis déterminée selon les principes généraux prévues aux articles 21 et 22 du Règlement. 73 notion, celle de la recevabilité, plusieurs commentateurs ont en critiqué son caractère « bien ambiguë »236, étant donné que le Règlement ne donne aucune définition à ce sujet. Certains ont ainsi interprété cette expression comme « un aspect particulier de la validité au fond »237, en considération du fait que si une disposition est irrecevable selon la loi qui lui est applicable, elle sera alors inévitablement atteinte d'invalidité. Quant à cette dernière notion, elle est clarifiée par l'art. 26 du Règlement qui énumère les éléments qui en relèvent : la capacité du disposant de prendre une disposition à cause de mort, les incapacités spéciales de disposer et de recevoir, l'admissibilité de la représentation, l'interprétation de la disposition ainsi que les conditions pour le consentement. 121. À la différence de l'article 25 en outre, l'article 24 ne régit pas les effets des dispositions à cause de mort qui restent ainsi soumises à la loi successorale 238. Cette lecture restrictive est d'ailleurs confirmée par la longue énumération contenue au précité art. 23 du Règlement concernant la portée de la loi applicable à la succession. C'est donc celle-ci qui est compétente à régir, par exemple, la vocation successorale des bénéficiaires (art. 23, par. 1er, point b), ou encore l'exhérédation (art. 23, par. 1er, point d) ou les questions liées à la détermination de la quotité disponible, à la réserve héréditaire ainsi qu'aux autres restrictions à la liberté de disposer à cause de mort (art. 23, par. 1er, point h). De plus, le considérant 50 du Règlement précise que la loi désignée aux articles 24 et 25 « devrait être sans préjudice des droits de toute personne qui, en vertu de la loi applicable à la succession, peut prétendre à une réserve héréditaire ou jouit d'un autre droit dont elle ne peut être privée par la personne dont la succession est concernée ». Dès lors, lorsqu'une disposition serait valable selon la loi désignée par l'art. 24, elle pourrait néanmoins être soumise à réduction si la loi successorale le prévoit. 236 G.KHAIRALLAH, La détermination de la loi applicable à la succession, op. cit., p. 63, n° 141, en relation à l'art. 25 du Règlement; également de cet avis P.LAGARDE, Les principes de base du nouveau règlement européen sur les successions, op. cit., n°29, pour qui le terme de recevabilité est « assez mal choisi », contrairement aux versions anglaises (admissibility), allemande (Zulässigkeit), italienne (ammissibilità) ou espagnole (admisibilidad) considérées plus claires. 237 A.BONOMI, Droit européen des successions, op. cit., p. 381, n°9 238 Solution qui est similaire à celle retenue par certains droits nationaux, tel que le droit all
emand
o
ù
l
'
on
considère que
l'art. 26, al. 5, du E
GB
GB, ne s'
applique pas
aux
effets
des dispositions à
cause
de
mort
, sauf quant à leur caract
ère
révocable ou irrévocable (v. H.DÖRNER, Internationales Erbrecht, Art. 25, 26 EGBGB, in J. von Staudingers Kommentar zum Bürgerlichen Gesetzbuch, Einführungsgesetz zum BGB, Berlin, Sellier, 2007, n° 73. 122. Quant à la loi prévue par l'art. 24, par. 1er, celui-ci dispose qu'une disposition à cause mort autre qu'un pacte successoral est régie, quant à sa recevabilité et à sa validité au fond, par la loi qui, en vertu du Règlement, « aurait été applicable à la succession de la personne ayant pris la disposition si elle était décédée le jour de l'établissement de la disposition ». La loi désignée par l'art. 24 est donc la loi successorale « hypothétique », solution qui est assez répandue en droit comparé, tant dans les États européens 239 que dans les États tiers240. Cette loi doit être déterminée par référence au jour où la disposition à cause de mort a été établie, ce qui constitue une question de fait241, et sur la base des règles générales dictées par le Règlement pour la désignation de la loi applicable à la succession, c'est-à-dire les articles 21 et 22. Ainsi, la loi successorale hypothétique pourra être, selon le cas : la loi de la dernière résidence habituelle du défunt, en prenant comme référence le lieu où le disposant résidait habituellement au jour où la disposition a été établie (art. 21, par. 1er) ; la loi de l'État avec lequel le défunt avait, à ce jour, des liens manifestement plus étroits (art. 21, par. 2) ; la loi de son État national si, au jour de l'établissement de la disposition, cette loi était applicable à la succession en vertu d'une professio juris du défunt (art. 22). 123. Dans toutes ces situations, l'application de l'art. 24 comporte un certain nombre d'avantages, notamment par le biais de son effet de « cristallisation » de la loi applicable à la disposition à cause de mort. En effet, cette solution permet de protéger les dispositions de dernière volonté qui étaient valables au jour de leur établissement, évitant ainsi les conséquences résultant d'un potentiel conflit mobile entre la loi applicable au jour de la disposition et celle applicable au jour du décès. Ainsi, en l'absence de la règle dictée par l'art. 24, l'application de la loi de la dernière résidence habituelle du défunt pourrait conduire à l'invalidité des dispositions qui étaient au contraire valables au moment de leur établissement ; en revanche, par l'application de la loi successorale hypothétique, ce risque est écarté car la recevabilité et la validité au fond de ces dispositions restent soumises à la loi qui aurait régi la succession au jour de leur établissement, et cela même 239 Par exemple l'art. 9.8 du Code civil espagnol ou l'art. 35 de la loi polonaise de droit international privé de 1965. 240 Tel est le cas, par exemple, de l'art. 27 de la loi de droit international privé japonaise ou de l'art. 50 de la loi de droit international privé de la Corée du Sud de 2001. 241 A.BONOMI, Droit européen des successions, op. cit., p. 385, n°19 75 en cas de transfert successif de la résidence habituelle du défunt. 124. En dépit de ses avantages, la loi successorale hypothétique n'est cependant pas dépourvue d'inconvénients. Son principal effet négatif est sans aucun doute le fait qu'elle conduit à une situation de dépeçage de la succession, étant donné que cette loi ne régit que la recevabilité et la validité au fond des dispositions à cause de mort, tandis que toutes les autres questions sont gouvernées par la loi successorale déterminée au jour du décès242. De plus, et contrairement à l'objectif de coordination entre autorité compétente et loi applicable poursuivi par le Règlement, le rattachement à la loi successorale hypothétique pourrait aller perturber cette coïncidence entre le for et le jus, en raison du fait qu'il pourrait soumettre certaines questions relatives aux dispositions à cause de mort à une loi étrangère différente de celle de l'État de la dernière résidence habituelle du défunt (tel est le cas notamment en cas de transfert de la résidence du de cujus). Enfin, cette solution pourrait entraîner un inconvénient ultérieur, à savoir celui d'un risque de comportements abusifs. À ce sujet, certains ont en effet remarqué que le disposant, afin de bénéficier d'un droit plus favorable à la réalisation de ses objectifs successoraux, pourrait transférer provisoirement sa résidence habituelle dans le but d'établir des dispositions contraires à la loi de son État d'origine243. Or, comme indiqué supra, même si la recevabilité et la validité au fond des dispositions à cause de mort sont régies par la loi successorale hypothétique, la plupart des questions importantes liées à une succession restent sous l'empire de la lex successionis déterminée au moment du décès, ce qui réduit donc de manière considérable le risque d'une utilisation abusive de l'art. 24 du Règlement244. 125. Il est toutefois possible de déroger à la règle de la loi successorale hypothétique par le recours à la professio juris, qui permet au disposant de désigner, comme loi régissant la recevabilité et la validité au fond d'une disposition à cause de mort, la loi qu'il aurait pu choisir pour régir la succession en vertu de l'art. 22 du Règlement (art. 24, par. 2). Il en découle ainsi une deuxième possibilité de professio juris, qui va donc s'ajouter à celle 242 Idem, p. 390, n° 33 243 En ce sens B.AUDIT-L.D'AVOUT, Droit international privé, op. cit., n° 893 244 A.BONOMI, Droit européen des successions, op. cit., p. 392, n°35 76 générale prévue à l'article 22 (étudiée infra) et qui est limitée aux seules questions de la recevabilité et de la validité au fond d'une disposition de dernière volonté. Par conséquence, contrairement au choix effectué aux termes de l'art. 22 qui porte sur l'ensemble de la succession, celui prévu à l'art. 24, par. 2, n'est qu'un choix partiel, limité aux questions visées par cette disposition et n'ayant aucune influence sur les autres aspects relevant de la loi successorale245. Dès lors, en cas de choix de la loi applicable à la disposition mortis causa, les autres questions successorales indiquées à l'art. 23 du Règlement resteront néanmoins régies par la loi de l'État de la dernière résidence habituelle du défunt déterminée au jour du décès, ou bien par la loi de l'État avec qui le de cujus avait, à ce jour, des liens manifestement plus étroits (art. 21, par. 1er et 2, du Règlement). 126. Le rattachement à la loi successorale hypothétique, prévu pour la recevabilité et la validité au fond des dispositions à cause de mort, n'a en revanche pas été retenu pour la forme de ces dispositions. Cette question est régie par l'art. 27 du Règlement, qui dicte les règles de conflits relatives à la validité formelle des dispositions de dernière volonté. Le régime prévu reprend essentiellement les solutions appliquées par la Convention de La Haye de 1961 sur les conflits de loi en matière de forme des dispositions testamentaires, précitée, en vigueur dans la plupart des États membres de l'Union européenne246. Il s'ensuit que les règles dictées par cet instrument ont été incorporées dans le Règlement de 2012247, qui les a en outre étendues aux pactes successoraux, non inclus dans le régime prévu par la Convention. À l'instar de cette dernière, le législateur européen a donc voulu favoriser le plus possible 245 En ce sens P.LAGARDE, Les principes de base du nouveau règlement européen sur les successions, op. cit., n°32 246 C'est pourquoi P.LAGARDE, ivi, n°28, suggérait que le Règlement aurait pu renvoyer les États membres à la Convention de 1961 sans prévoir une règle spécifique pour la validité formelle des dispositions à cause de mort. 247 Aux termes de l'art. 75, par. 1er, al. 1er, du Règlement, celui-ci n'affecte pas l'application des conventions internationales auxquelles un ou plusieurs États membres sont parties. En particulier, il est précisé à l'alinéa 2 de cette disposition que « les États membres qui sont partie à la Convention de La Haye de 1961 sur les conflits de lois en matière de forme des dispositions testamentaires continuent à appliquer les dispositions de cette convention au lieu de l'article 27 [du Règlement] pour ce qui est de la validité quant à la forme des testaments et des testaments conjonctifs ». En principe une telle prévision pourrait faire penser à l'application d'un régime différent entre les États membres du Règlement et partie à la Convention et ceux ne l'ayant pas adoptée. En réalité, compte tenu du fait que l'art. 27 est calqué sur le modèle de la Convention de 1961, il n'en découle que quelques différences limitées (par exemple l'interprétation de certaines notions). 77 la validité formelle des dispositions à cause de mort, en prévoyant une série de critères de rattachements alternatifs pour la détermination de la loi applicable. 127. Ainsi, aux termes de l'art. 27, par. 1er, du Règlement, une disposition à cause de mort est valable, quant à la forme, si elle est établie conformément : soit à la loi de l'État dans lequel la disposition a été prise (ou le pacte successoral a été conclu) ; soit à la loi d'un État dont le testateur (ou au moins l'une des personnes concernées par le pacte successoral) possédait la nationalité au moment de l'établissement de la disposition (ou de la conclusion du pacte) ou au moment de son décès ; soit la loi d'un État dans lequel le testateur (ou au moins l'une des personnes concernées par le pacte successoral) avait son domicile au moment de l'établissement de la disposition (ou de la conclusion du pacte) ou au moment de son décès ; soit la loi d'un État dans lequel le testateur (ou au moins l'une des personnes concernées par le pacte successoral) avait sa résidence habituelle au moment de l'établissement de la disposition (ou de la conclusion du pacte) ou au moment de son décès ; soit enfin, pour les biens immobiliers, la loi de l'État dans lequel les biens immobiliers sont situés. Dès lors, la validité formelle d'une disposition à cause de mort sera régie par l'une ou l'autre des lois désignées à titre alternatif, ce qui réduit donc le risque que cette disposition puisse être frappée d'invalidité pour des questions de forme. 128. Certes, similairement aux doutes exprimés quant à l'art. 24 du Règlement pour la loi successorale hypothétique, ici encore cette large liberté reconnue au disposant pourrait conduire à un usage abusif de l'art. 27 et donc à une situation de potentielle fraude à la loi. Or, c'est exactement pour éviter ce genre d'hypothèse que le considérant 52 du Règlement précise que « lorsqu'elle détermine si une disposition à cause de mort est valable en la forme [], l'autorité compétente ne devrait pas prendre en considération la création frauduleuse d'un élément international en vue de contourner les règles relatives à la validité quant à la forme ».
β) Les pactes successoraux : l'art. 25 du Règlement 129.
Comme indiqué supra, et à l'instar de la Convention de La Haye de 1989, les pactes 78 successoraux font l'objet de règles spécifiques dans le Règlement de 2012 248. Celles-ci reprennent en partie le régime dicté à l'art. 24 en relation aux autres dispositions à cause de mort, en adoptant, d'une part, le critère de la loi successorale hypothétique (art. 25, par. 1er) et en prévoyant, d'autre part, que les parties à un tel pacte puissent choisir la loi applicable à celui-ci (art. 25, par. 2). En revanche, contrairement à l'art. 24, les règles dictées pour les pactes successoraux ne régissent pas uniquement la recevabilité et la validité au fond de ceux-ci, mais aussi la question des effets contraignants de ces pactes, qui est donc également soumise à la loi indiquée par l'art. 25. 130. L'article 25 s'inspire largement de la Convention de La Haye de 1989, dont les articles 8 à 12 sont entièrement consacrés aux « successions contractuelles ». En droit comparé, en revanche, la situation n'est pas homogène. Ainsi, certains systèmes nationaux de droit international privé dictent des règles spécifiques pour les pactes successoraux (par exemple l'Espagne ou la Suisse), alors que d'autres prévoient des règles générales applicables à toutes les dispositions à cause de mort sans distinction (par exemple l'Autriche, la Hongrie ou la Pologne). D'autres encore, assez nombreux, ne prévoient aucune règle particulière pour les pactes successoraux, qui demeurent donc soumis à la loi applicable à la succession (c'est le cas de la Belgique, de la France ou de l'Italie par exemple). À cette grande diversité s'ajoute un ultérieur inconvénient : en effet, certains États membres, l'Italie in primis, interdisent de manière générale la possibilité de conclure des pactes successoraux, ce qui pourrait donner lieu, comme on va voir dans le deuxième chapitre du travail, à un frein à l'application du Règlement au nom de l'ordre public. 131. Le Règlement apporte une définition large de pacte successoral (supra indiquée), capable d'englober une grande variété d'institutions249 (testaments mutuels ou conjonctifs, donations entre époux de biens à venir, donations-partages), leur élément commun étant 248 Suivant le modèle de la Convention de La Haye de 1989, la Commission avait considéré que seuls les pactes successoraux méritaient une discipline spécifique dans le Règlement, ce qui explique l'exclusion de règles concernant les autres dispositions à cause de mort dans le texte de la proposition de 2009. Ce n'est qu'après les fortes critiques soulevées contre cette approche par un certain nombre de commentateurs que le législateur européen a décidé d'introduire un régime particulier aux dispositions de dernière volonté différentes des pactes successoraux (v. supra n° 98). 249 Sur les institutions pouvant rentrer dans la notion prévue
à
l'art. 3 du Règlement, v. notamment P.LAGARDE, La nouvelle Convention de La Haye sur la loi applicable aux successions, op. cit., n°30 ; A.BONOMI, Droit européen des successions, op. cit., p. 400, n°6 ;
G
.KHAIRALLAH, La détermination de la loi applicable à la succession, op. cit
.
,
p. 61, n° 138. 79 l'existence d'un « accord » portant sur une « succession future » (art. 3, par. 1er, point b, du Règlement). De plus, malgré la présence d'éléments contractuels, le Règlement se borne de préciser que ces pactes font partie des dispositions à cause de mort (art. 3, par. 1er, point d), ce qui rejoint ainsi l'approche traditionnellement retenu dans la plupart des systèmes nationaux. 132. L'article 25 distingue selon que le pacte concerne la succession d'une seule personne ou de plusieurs personnes. Dans la première hypothèse la loi désignée régie la recevabilité, la validité au fond et les effets contraignants du pacte, alors que dans le deuxième cas le Règlement procède à une distinction entre la recevabilité du pacte d'une part et sa validité et ses effets contraignants d'autre part. 133. Ainsi, le pacte qui concerne une seule personne est régi par la loi qui « aurait été applicable à la succession de cette personne si elle était décédée le jour où le pacte a été conclu ». Comme pour les autres dispositions à cause de mort, ici encore le législateur européen a opté pour le rattachement à la loi successorale hypothétique, laquelle pourra donc être, selon le cas : soit la loi de la dernière résidence habituelle du défunt, en prenant comme référence le lieu où la personne résidait habituellement au jour où le pacte a été conclu (art. 21, par. 1er) ; soit la loi de l'État avec lequel le défunt avait, à ce jour, des liens manifestement plus étroits (art. 21, par. 2) ; soit la loi de son État national si, au jour de la conclusion du pacte, cette loi était applicable à la succession en vertu d'une professio juris du défunt (art. 22). De cette manière, même en cas de transfert de la résidence habituelle dans un pays qui prohibe les pactes successoraux (ou de choix de la loi d'un tel État par le de cujus), le pacte antérieurement conclu maintiendra sa validité et ne pourra donc pas être privé d'effets par l'application de la loi successorale « successive ».
| 15,058
|
02/tel.archives-ouvertes.fr-tel-02090648-document.txt_10
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 6,997
| 10,883
|
431 FO Préfectures n'intègre pas immédiatement la FSMI (l'adhésion n'a formellement lieu qu'en 2016), mais les policiers considèrent souvent (à tort) les personnels des préfectures comme membres à part entière de la fédération dès 2014, ce syndicat FO étant bien identifié car largement majoritaire dans son champ de syndicalisation. 432 Cette majorité policière n'étant valable que dans la mesure où FO-Préfectures n'est pas encore membre de la fédération. Lorsque ce syndicat rejoint la FSMI en 2016, plusieurs postes clés sont renégociés et attribués à des syndicalistes issus des Préfectures. 168 / 515 bureaux les dérangent et demain Cela sera les collègues qui leur feront face en maintien de l'ordre??? ». Illustration 1. « Demain qui défendront-ils? »,
tract Alliance Police Nationale, 28
novembre 2014 Si la FSMI n'est qu'une réalité difficile à appréhender pour la plupart des responsables régionaux et départementaux, rares sont les adhérents ou sympathisants à en avoir simplement entendu parler. L'enjeu est donc de taille pour les militants
:
c
'est le
sigle FSMI
qui
sera sur les bulletins de vote pour les Comités Techniques
,
il faut donc le faire connaître
et
l'associer
de manière
claire à Unité-SGP-Police
. Ainsi, à chaque passage d'un délégué, d'un adhérent ou d'un simple visiteur dans les locaux du syndicat, les membres du bureau départemental en profitent pour faire de la pédagogie électorale en parlant de la FSMI (le logo de la FSMI est notamment affiché sur la porte d'entrée, à côté de celui d'Unité-SGP-Police) ; et surtout en prenant soin de la différencier de la FASMI, la fédération UNSA, dont le sigle est particulièrement proche. De même, des « mémos vote » sont envoyés par courrier aux adhérents et distribués par les délégués ; et des sous-mains sont largement diffusés dans les services avec pour objectif principal de rendre visible la FSMI : dans ces supports de communication, le logo Unité-SGP-Police – FO est systématiquement accolé à celui de la FSMI, afin d'associer dans les esprits des policiers ces deux structures. Par ailleurs, si au niveau national le paysage syndical est stabilisé, des mouvements locaux brouillent encore un peu plus les cartes : dans le département dans lequel nous avons mené nos observations par exemple, les anciens secrétaires départemental et régional ont quitté Unité-SGP Ce sont des figures connues et reconnues des policiers du département : leur « retour » vers l'étiquette UNSA complique la position d'Unité-SGP-Police, donnant l'impression que ce sont les militants de ce syndicat qui ont changé d'étiquette syndicale, avec un parcours chaotique, alors que leur trajectoire est celle de la majorité des anciens adhérents de l'UNSA-Police. Les concurrents syndicaux ne manquent bien évidemment pas de jouer sur cette ambiguïté Il est donc essentiel, pour les militants Unité-SGP-Police du département d'adopter une position la plus claire possible, notamment en précisant leur affiliation confédérale à Force Ouvrière, et en affirmant la cohérence de leur position, qui est la même depuis quatre ans. 433 Nous reviendrons plus en détail sur les enjeux et le déroulement de cet épisode dans la 3e partie de la thèse. police sont fortement sollicités par les opérations de maintien de l'ordre lors des différents mouvements, affrontant parfois des militants violents. En retour, les organisateurs des manifestations critiquent fermement la violence policière, jugée démesurée et illégitime. Les syndicats policiers affichent tous un soutien sans réserve434 à leurs collègues et dénoncent les attaques dont ils sont la cible. La confédération Force Ouvrière, et à travers elle Unité-SGP-Police, est vivement attaquée par Alliance Police Nationale et l'UNSA-Police pour ses positions « antipolice ». Affiche Alliance Police Nationale du 25 avril 2016 « [L'union syndicale Solidaires] avait également signé, avec la CGT, FO, la FSU et l'Unef, une lettre envoyée lundi 11 avril 2016 au préfet de police de Paris et au directeur de l'ordre public et de la circulation pour dénoncer les « comportements violents des forces de l'ordre en charge de veiller au bon déroulement des manifestations ». Pour le secrétaire départemental de Force Ouvrière, ces violences et ces blessés auraient pu être évitées « s'il n'y avait pas eu un dispositif policier qui ne faisait pas la distinction entre un cortège syndical pacifique et quelques casseurs ». Le syndicaliste a par ailleurs indiqué qu'il se réservait « le droit de porter plainte pour violences policières ». POUR ALLIANCE TOUS LES POLICIERS RESPECTENT LA RÉPUBLIQUE MAIS TOUTES LES CENTRALES SYNDICALES RESPECTENT-ELLES LA POLICE? » Affiche UNSA-Police du 29 avril 2016 « Les différentes manifestations du 28 avril 2016, contre la « Loi travail » ont, comme d'habitude, servi d'alibi à un déchainement de violences, dont les cibles sont, une fois de plus, les policiers. « le côté obscur de la FOrce. Alors que le porte parole d'unité police tente, assez maladroitement, de vendre l'invendable en essayant d'expliquer l'inexplicable, la CGT-FO révèle inexorablement sa véritable nature Ainsi, le grand patron de la CGT-FO, Jean-Claude Mailly, signe la pétition contre les « violences policières » et la dépénalisation de l'outrage Puis c'est au tour du patron de la CGT-FO Ille-et-Vilaine de dénoncer des « violences policières » tout aussi imaginaires que les « dizaines » de manifestants blessés. C'est maintenant le responsable d'Indre-et-Loire qui dénonce, par communiqué de presse, citons : « fermement ces pratiques policières qui instaurent un climat de violence ». On croit rêver La CGT-FO montre son véritable visage : celui de la haine des institutions, y compris de la police. Soufflant le « chaud et le froid », la CGT-FO, dans plusieurs départements, soutien[t] la partie la plus radicale des manifestations en dénonçant des « violences policières ». Les délégués d'Unité CGT-FO font le grand écart Membres à part entière de la CGT-FO, comment peuvent-ils encore faire croire qu'ils défendent les policiers? Démagogie Manipulation » Affiche Alliance Police Nationale du 11 mai 2016 « L'UNITÉ OUI, MAIS PAS À N'IMPORTE QUEL PRIX! Alliance Police Nationale CFE/CGC peut s'associer aux confédérations qui soutiennent ou ne discréditent pas systématiquement l'action policière! Alliance Police Nationale ne peut s'associer aux organisations qui participent activement à la destruction de notre image de policier.
POLICIERS EXIGEZ QU'UNITÉ SGP FO CONDAMNE LES PROPOS DE SA CONFÉDÉRATION ET SA PARTI CIPATION À DES INTERSYNDICALES CONTRE LA POLICE.
Alliance Police Nationale ne peut faire front commun avec des organisations qui financent avec l'argent de vos cotisations des actions juridiques contre des pseudos violences policières ». Affiche UNSA-Police du 12 mai 2016 « Policiers, comment rester encore dans ce syndicat!? FO A PRIS LE CONTRÔLE D'UNITÉ SGP ; UNITE SGP ne peut plus vous défendre » Affiche UNSA-Police du 23 mai 2016 « Consigne de FO : on ne parle pas à la police. FO récidive en publiant un document de conseils à priori destinés à des casseurs en formation. La confédération Force Ouvrière poursuit sa campagne propagandaire contre la police nationale. Jean-Claude Mailly, le big boss, a beau s'en défendre dans des interviews ; aucune explication ne peut venir effacer la signature d'une pétition pour dépénaliser l'outrage, pas plus que l'appel à dénoncer les violences policières. La branche police de l'organisation, Unité SGP - FO, n'avait-elle pas accepté le port du RIO et la plate-forme IGPN en applaudissant à deux mains? Mais FO va encore plus loin. Son syndicat des «organismes sociaux» d'Ille-etVilaine diffuse, via son site internet (http://www.osddfo35.fr) un guide pratique des rapports à entretenir avec les policiers. [] Alors, d'après FO, que faire si un policier «souhaite vous parler»? Réponse : que vous soyez en garde à vue ou non, FO vous conseille (ordonne?) de ne pas parler. Pas un mot, rien. De là à en conclure que pour FO la police est une ennemie, il n'y a qu'un pas, que nous franchissons bien volontiers. Ce genre de conseils, les policiers les entendent circuler généralement entre délinquants ou criminels. Sauf ablation complète de la morale, ce n'est pas une idéologie qui caractérise des gens responsables et honnêtes. Sur cette question, qu'en dit Unité SGP Police - FO? Le ton de FO se veut rassurant, mais ses actes sont inquiétants. Plus inquiétant encore est le soutien sans faille de sa branche police. » En réaction, Unité-SGP-Police critique également les positions de la CFE-CGC, et relaie via son site internet et les réseaux sociaux un reportage diffusé au journal télévisé de France 2 intitulé « qui sont les casseurs? », renommé par le syndicat « Casseurs anti-flics à la CFE-CGC! » dans lequel deux militants de la CFE- CGC, clairement identifiables par leurs casquettes et imperméables floqués du sigle de la confédération, affirment être des « casseurs ». Unité-SGPPolice diffuse également sur son site internet et via les réseaux sociaux des affiches produites par d'autres syndicats FO (essentiellement le Syndicat National Pénitentiaire – SNP-FO) en soutien aux policiers. Le choix de relayer ces communications issues d'autres syndicats n'est pas anodin : il s'agit de désenclaver Unité-SGP-Police au sein de la confédération, de montrer que le syndicat n'est pas seul au sein de Force Ouvrière et que d'autres organisations professionnelles peuvent apporter leur soutien, au moins symbolique, aux policiers. En dehors de ces quelques cas particuliers, l'attitude des militants d'Unité-SGP-Police face aux critiques peut être de deux ordres : certains choisissent de revendiquer cette identité ouvrière représentée par Force Ouvrière, en s'affirmant « ouvrier d'État » et, du même coup, en critiquant l'affiliation d'Alliance Police Nationale à une confédération de cadres. L'héritage familial est également parfois invoqué comme une justification, voire une revendication, de l'identité ouvrière. Notes de terrain, 07/01/2015, Bureau Départemental USGP, bureau CRS. « Les cadres, ce sont les patrons, moi je suis gardien, pas patron, donc je vais pas dans un syndicat de patrons! ». Notes de terrain, 28/08/2014, Bureau Départemental USGP. « Moi je suis fils et petit-fils d'ouvrier, et j'en ai pas honte! ». En d'autres occasions, c'est la politisation supposée de Force Ouvrière qui est relativisée, voire niée. Plusieurs militants, délégués ou permanents rappellent ainsi régulièrement que Force Ouvrière est une confédération née du refus de l'alignement sur le Parti Communiste, et qu'il n'y a pas de politique dans ce syndicat. On retrouve des éléments de langages communs qui proviennent manifestement au moins en partie des formations suivies par les délégués de l'organisation. En retour, les militants Unité-SGP-Police n'hésitent pas à critiquer l'affiliation d'Alliance Police Nationale à la CFE-CGC, syndicat « de cadres », voire « de patrons » : Notes de terrain, 14/01/2009, salle des congrès de l'Hôtel Mercure, Marseille. « Entre Alliance ou le SGP, mon choix est fait. Etre policier c'est être ouvrier d'
Etat
. La CFE-CGC c'est pas fait pour
moi, un ouvrier ça va pas à la CFE »435.
De même,
la « collaboration
» avec
la confédé
ration
Force
Ouvrière peut être revendiquée et présentée comme une force pour les policiers d'Unité-SGP-Police : réunions communes, visites des représentants de Force Ouvrière lors des temps forts du syndicats ; participation des policiers aux instances confédérales Les interventions de Jean-Claude Mailly sont également relayées lorsqu'elles concernent la police nationale. 435 Déclaration d'un délégué lors du congrès extraordinaire de Marseille, Janvier 2009. Ainsi, sans être complètement revendiquée, l'affiliation à Force Ouvrière est plutôt bien acceptée par les syndicalistes policiers : tous les éléments de communication sont marqués du logo de la confédération, des drapeaux et affiches FO sont présents dans les locaux départementaux, et Unité-SGP-Police relaie régulièrement les informations confédérales, notamment les appels interprofessionnels à manifestation. Si les adhérents et militants sont rarement présents sur ces temps collectifs, les permanents font, quand ils le peuvent, le déplacement. De même, lorsque les responsables syndicaux du département s'aperçoivent que Jean-Claude Mailly est présent pour un meeting local le jour de l'Assemblée Générale qu'ils organisent, ils l'invitent à prendre la parole devant les militants policiers, et réajustent leur communication, notamment en réimprimant des tracts appelant à participer à l'Assemblée Générale pour y inclure le nom et la photo du secrétaire général confédéral. Mais d'une manière plus générale, en dehors des militants les plus investis, la confédération reste une réalité assez lointaine, peu concrète. Les permanents sont pourtant progressivement convaincus des retombées positives que peut avoir l'affiliation à une confédération représentative : le statut de syndicat majoritaire dans la fonction publique d'État est souvent rappelé, notamment pour justifier la capacité à négocier au-delà du statut policier. A l'issue de la première campagne électorale du syndicat unique Unité-SGP-Police – FO436, les élections de 2014 présentent des résultats contrastés, mais globalement décevants : on constate localement des progressions ou des résistances importantes, mais le score national diminue par rapport au scrutin précédent (en voix comme en pourcentage). Que ce soit au niveau de la CAPN ou du CTM les résultats nationaux sont en baisse.
Organisation
syndicale CAPN 2014 CTM 2014 Unité-SGP-Police – FO / FSMI 39,8 % 32 % UNSA-Police / FASMI 11,45 % 12,9 % Alliance Police Nationale / CFE-CGC 41,4 % 33,8 % CFDT 10,1 %
Tableau 8. Résultats des élections professionnelles en Commission Administrative Paritaire Nationale – Police Nationale et Comité Technique Ministériel – Ministère de l'Intérieur, 2014
Mal
gré cette
défaite, Unité-SGP-Police – FO s'impose comme un acteur central du syndicalisme policier et affirme son rôle de principal concurrent d'Alliance. D'autant que dans de nombreuses commissions (locales comme nationales), on constate une association de fait entre les 436 Comme précisé plus haut, les élections précédentes ont été menées conjointement par Unité-Police et le SGP-FO sous forme d'alliance entre ces syndicats, et non en tant que syndicat unique. représentants d'Alliance et ceux de l'UNSA, dont l'objectif implicite semble être d'affaiblir leurs concurrents d'Unité-SGP-Police. Ainsi, dans le département dans lequel nous avons mené nos observations, les élus d'Unité-SGP-Police n'obtiennent aucune vice-présidence de commission, malgré une majorité relative, ces postes étant répartis entre Alliance (arrivé 2e) et l'UNSA-Police (3e). Ces différentes fonctions n'ont qu'une importance très relative (co-rédaction des compterendu de commission, priorité dans les prises de paroles, etc.), mais il s'agit d'une défaite symbolique face aux concurrents.
CONCLUSION CHAPITRE 2. L'implo
sion de
la FASP
au milieu
des
années
1990 a été un bouleversement incontestable pour le syndicalisme policier
: les syndicats membres comme les concurrents se retrouvent alors dans une situation de forte incertitude quant à la représentativité de chaque organisation. Cette confusion dans le paysage syndical policier s'accompagne par ailleurs d'une modification profonde du fonctionnement de l'institution policière avec la réforme des corps et carrières qui change sensiblement l'organisation de la profession. C'est dans ce contexte que les syndicats policiers tentent de se reconstruire. La stabilisation prend du temps tant les hésitations stratégiques, structurelles et organisationnelles sont nombreuses. Pendant près de 20 ans, les mouvements individuels et collectifs sont fréquents au sein des syndicats comme entre les syndicats. Le début des années 2010 semble toutefois marquer une stabilisation du champ syndical policier, même si elle reste précaire437. Trois pôles se distinguent : Unité-SGP-Police et Alliance Police Nationale se font face avec une audience électorale proche. L'UNSA-Police, bien que minoritaire (un peu plus 10% des voix en 2014) joue un rôle d'arbitre et aspire à occuper une place centrale dans le jeu syndical policier. L'implosion de la FASP marque ainsi la fin de l'hégémonie syndicale et le début d'une période de forte concurrence entre les organisations. Sans vouloir rentrer dans le jeu des prédictions, on constate que plusieurs éléments posent encore question et pourraient amener de nouveaux bouleversements, notamment au niveau des politiques confédérales : ainsi, si le rapprochement entre l'UNSA et la CFE-CGC a été envisagé puis écarté à la fin des années 2000, il reste toujours possible. Les conséquences pour les syndicats policiers membres de ces deux organisations (Alliance Police Nationale et l'UNSA-Police) sont difficiles à prévoir (fusion, nouvelle scission, rapprochement avec d'autres syndicats), mais le statut quo semble peu probable. La création récente d'Alternative-Police-CFDT par des dissidents d'Alliance ne semble pas avoir rebattu les cartes, mais cette nouvelle organisation est en cours de développement en dehors de la région parisienne. Dans quelle mesure peut-il s'agir d'un nouvel acteur du syndicalisme policier? Le départ de plusieurs cadres d'Unité-SGP-Police – FO (dont Nicolas Comte, ancien secrétaire général du SGP, qui a annoncé sa « retraite syndicale » et son retour en service) peut également marquer un simple renouvellement d'une partie de l'exécutif syndical, mais il peut aussi être le signe d'une nouvelle crise interne. Les élections professionnelles de fin 2018 donneront une meilleure vision de la situation et permettront de confirmer (ou d'infirmer) la stabilisation structurelle du champ syndical policier. On constate enfin l'émergence (ou, pour être plus précis, la réémergence) progressive de nouveaux acteurs, notamment les fédérations et confédérations. Nous avons vu dans le 1er chapitre que celles-ci ont déjà joué un rôle dans le syndicalisme policier, notamment en influençant le choix de l'adoption de la forme syndicale dans les années 1920, puis dans le choix de l'autonomie après-guerre. Si elles sont restées à la marge du jeu syndical policier pendant près de 50 ans, avec des syndicats largement minoritaires, voire marginaux, elles redeviennent des acteurs centraux à la faveur de la loi Perben de 1996, puis des lois sur la représentativité syndicale de 2008 et 2010. CONCLUSION PARTIE 1
Nous avons posé, dans cette première partie, les grandes étapes du syndicalisme policier depuis sa création jusqu'à aujourd'hui pour essayer de mieux comprendre les enjeux qui lui sont propres et les mutations qu'il a subies : d'abord aux origines, avec les hésitations sur la stratégie à adopter face aux fonctionnaires et au mouvement ouvrier ; puis après la seconde guerre mondiale, avec le refus de choisir entre la CGT et Force Ouvrière. Les années 1990 et 2000 ont vu se succéder les crises internes, les mutations, scissions, transformations. La forme que prend aujourd'hui le syndicat Unité-SGP-Police a largement été influencée par cet héritage, mais également par des contraintes externes : la « loi Perben » de 1996, les accords de Bercy de 2008 puis loi la relative à la rénovation du dialogue social dans la fonction publique de 2010 ont encouragé les responsables syndicaux à s'engager plus encore dans la voie du rassemblement. En plus de permettre de situer les différents acteurs, le retour historique présente un intérêt majeur : cela permet de relativiser la nouveauté de ce qui est observé. Notre thèse est largement basée sur l'observation ethnographique, nous sommes donc parfois tenté de présenter nos observations comme des découvertes, des nouveautés. Mais les conflits et les scissions dont nous avons été les témoins privilégiés ne sont pas inconnus du syndicalisme policier, mais un élément caractéristique depuis son origine. Il est d'ailleurs intéressant de constater que plusieurs acteurs cherchent activement à limiter ces possibilités par les formes structurelles qu'ils veulent donner à leurs organisations (choix du syndicat unique plutôt que de la fédération ou de l'union syndicale). L'aperçu historique permet également d' er, de préciser, et de situer notre questionnement général. Comment en effet pourrait-on étudier le travail syndical de représentation, de service et de mobilisation sans l'inscrire dans son contexte général? Les façons de faire des militants policiers sont doublement influencées, d'abord par une forme d'« héritage militant », qui cadre, voire réduit, le champ du possible (et du pensable) ; ensuite par les configurations syndicales du moment, directement issues de l'histoire plus ou moins récentes des organisations. 2EME PARTIE LE TRAVAIL DE REPRÉSENTATION SYNDICALE
Dans la première partie de cette thèse, nous nous sommes intéressé aux organisations, aux parcours collectifs et aux évolutions de ces « groupements d'intérêts »438 que sont les syndicats policiers. Cette approche, très « macro », présente l'intérêt indéniable d'une compréhension globale des dynamiques qui traversent le syndicalisme policier, permettant notamment la prise en compte du temps long de l'histoire, traversant les générations et, parfois, les organisations. Mais cette vision large n'est pas sans limites, notamment parce qu'elle néglige le rôle des individus. Nous souhaitons donc dans cette seconde partie changer de focale pour examiner plus en détail les acteurs individuels, comprendre leurs logiques propres, leurs motivations, leur travail, leurs façons de faire, etc. La question soulevée dans cette seconde partie est donc double : d'abord, qui sont les syndicalistes policiers? Ensuite, que font-ils? L'idée est bien alors de s'intéresser aux acteurs eux-mêmes, en considérant notamment leur point de vue subjectif sur leur situation et sur leurs actions ; mais aussi au travail syndical lui-même. Comment définir ce travail syndical? Est-ce un « travail ordinaire » 439, qu'on peut aborder comme n'importe quelle autre activité professionnelle? A rebours de cette idée, Cécile Briec postule, dans son article consacré à cette question, que le syndicalisme serait « un milieu de travail non ordinaire »440, notamment dans la mesure où les acteurs concernés considèrent leur activité comme un engagement volontaire qui peut, en théorie, s'interrompre du jour au lendemain. De même, Louis-Marie Barnier et François Clerc soulignent que dans la plupart des cas, « c'est comme prolongement
activités 438 Sur l'intérêt de considérer les syndicats comme des groupes ou groupements d'intérêts, voir OFFERLE M., Sociologie des groupes d'intérêt, Paris, Montchrestien, 1998. 439 BRIEC C., « L'activité syndicale : un travail ordinaire? », Nouvelle revue de psychosociologie, 2014/2 (n°18), pp. 69-83. 440 Ibid, p 69. professionnelles que beaucoup de syndicalistes conçoivent leur engagement »441. En ce sens, les auteurs interrogent le statut du syndicaliste : travaille-t-il pour l'entreprise? Pour les salariés? Pour un collectif plus large (« les travailleurs »)? « L'activité syndicale fait partie intégrante de l'entreprise. Tout salarié qui s'engage dans la défense des intérêts matériels et moraux des salariés apporte à la communauté de travail tout autant qu'un salarié qui accomplit les obligations de son contrat de travail » 442. S'opposer à l'employeur n'empêcherait alors pas d'oeuvrer aussi, au moins en partie, dans son intérêt ou, pour le moins, dans l'intérêt de l'entreprise. Sans nier ce rôle de travailleur au service de l'entreprise, John Cultiaux souligne toutefois que les syndicalistes effectuent « un travail proprement politique » 443 : pour lui, le délégué syndical est d'abord le « représentant de son syndicat »444, c'est à dire l'agent qui va d'une part traduire les discours politiques syndicaux généraux au niveau local, et d'autre part relayer les besoins locaux à un niveau plus global. Les interprétations du travail syndical sont donc multiples : si ce travail syndical recoupe très largement une activité de représentation des travailleurs, sa très grande diversité en fonction des milieux professionnels, des organisations, des échelles ou des niveaux de responsabilité, limite les possibilités de généralisation. Nous considérerons donc ici le travail syndical dans son acception faible, c'est-à-dire comme l'ensemble des tâches qui concourent au fonctionnement de l'institution syndicale, laquelle a pour mission la représentation des travailleurs auprès de l'employeur et de l'Etat. Là encore, les façons de représenter sont infiniment variées et ne se limitent pas aux instances institutionnalisées de dialogue social. Nous choisissons de questionner ce rapport entre les syndicalistes et l'activité syndicale en adoptant successivement deux approches : d'abord par le travail et les travailleurs, ensuite par les répertoires d'action. Chacune de ces notions présente des limites, nous y reviendrons, mais nous considérons qu'elles sont particulièrement complémentaires, permettant ainsi de dépasser les difficultés théoriques qu'elles pourraient, chacune séparément, poser. Ainsi, au risque de quelques redondances, nous assumons une combinaison de deux approches qui nous permettent de penser le syndicalisme policier par ses acteurs, par son fonctionnement, mais aussi par ses destinataires. 441 BARNIER L-M., CLERC F., « Égalité, équité, reconnaissance, démarches de valorisation du travail syndical », Nouvelle revue de psychosociologie, 2014/2 (n°18), p 164. 442 Ibid, p 171. 443 CULTIAUX J., « Les tensions du travail d'organisation militant : l'exemple du travail syndical de terrain en Belgique », Nouvelle revue de psychosociologie, 2014/2 (n°18), p 13, l'auteur souligne. 444 Ibid.
L'approche par les acteurs (chapitre 3) permet de saisir ce travail tel qu'il est vécu et présenté par les principaux concernés. L'approche, ensuite, par la nature des missions (chapitre 4) répond au besoin d'une analyse fine et croisée des différentes activités syndicales. CHAPITRE 3. « FAIRE TOURNER LA MACHINE » : ETRE SYNDICALISTE ET POLICIER
Qu'est-ce que le travail syndical policier? Aborder l'étude du syndicalisme par le travail de représentation permet de centrer le regard sur l'activité elle-même, en prenant en compte les acteurs dans leur pluralité tout en s'intéressant également aux espaces multiples dans lesquels est produit le travail 445. Le travail syndical peut-il être considéré comme « un travail comme les autres »? Autrement dit, peut-on observer chez les syndicalistes policiers, comme dans d'autres milieux professionnels, un processus de professionnalisation de l'activité syndicale? Quels sont les compétences et savoir-faire spécifiques que les policiers doivent développer pour devenir de « bons syndicalistes »? Et comment les organisations syndicales organisent-elles la transmission de ces compétences (formation, sélection des candidats)? Penser le travail syndical policier permet également de questionner la pluralité des activités des syndicalistes, et donc la spécialisation et la division des tâches. Ainsi, un permanent est à la fois un militant, un représentant du personnel, un membre d'une organisation chargé de son fonctionnement, etc. Chacune de ces tâches nécessite un apprentissage et répond à des logiques propres dans lesquelles les syndicalistes doivent s'insérer446. Ce chapitre a l'ambition de présenter le travail des syndicalistes policiers comme un ensemble plus ou moins cohérent de tâches et de missions intrinsèquement liées les unes aux autres. Penser le syndicalisme comme un travail nous semble un angle d'approche particulièrement heuristique, notamment parce que cela permet d'appréhender toute la diversité de l'activité : cadres, 445 Les travaux qui s'intéressent au syndicalisme sous l'angle du travail sont encore peu nombreux (nous avons mention nés certains articles parus dans la Revue Française de psychosociologie en 2014). Cet axe d'étude est toutefois particulièrement stimulant et recouvre des approches extrêmement diverses. En témoignent les journées d'études « Approches ethnographiques du travail syndical », organisées au LEST les 27 et 28 avril 2017. 446 GOFFMAN E., La mise en scène de la vie quotidienne. 1. La présentation de soi, Paris, Éditions de Minuit, 1973. interlocuteurs, destinataires, ressources, etc. sont autant d'éléments qui contribuent à la variété du travail des syndicalistes 447. Le travail syndical n'est toutefois pas uniquement le fait des « professionnels » du syndicalisme que sont les permanents syndicaux448 : il s'agit ici d'observer, de décrire et de comprendre le travail effectué par l'ensemble des syndicalistes (délégués, permanents départementaux, régionaux ou nationaux) dans toute sa diversité, pour ensuite questionner les logiques de professionnalisation de l'activité syndicale et, donc, d'une partie des syndicalistes. Mais interroger le travail syndical suppose également de comprendre qui sont les syndicalistes, en inscrivant notamment l'activité syndicale dans un ensemble plus large comprenant en particulier le parcours professionnel, mais aussi des éléments plus personnels (socialisation familiale en particulier). Ces dimensions personnelles et extra-syndicales ne sont pas au coeur de notre recherche, mais elles nous semblent apporter un complément stimulant aux réflexions sur le travail syndical policier. Les relations entre les policiers et leur hiérarchie directe s'organisent souvent avec le syndicat, voire par son intermédiaire, que ce soit via les délégués de services, qui incarnent l'organisation sur le lieu de travail au quotidien ; ou via les permanents syndicaux qui interviennent pour des questions plus techniques et/ou plus conflictuelles. En creux, c'est ici la question des échelles de l'activité syndicale qui se pose. Nous avons en effet pu constater une double division du travail syndical policier : une division horizontale, qui renvoie à une logique de spécialisation des syndicalistes sur certains sujets ou missions ; et une division verticale, qui correspond à la structuration pyramidale et fortement hiérarchisée des syndicats policiers, y compris au sein du bureau départemental. Celui-ci se aractérise par son autonomie vis-à-vis du bureau national : les missions sont largement auto-attribuées, et les responsables nationaux n'exercent aucun contrôle a priori sur l'activité locale. Seuls les résultats (résultats électoraux et nombre d'adhérents en particulier) comptent. Une partie importante du travail de mobilisation se fait au plus près du lieu de travail, et donc des collègues, dans les services, dans les commissariats (ce que les syndicalistes eux-mêmes appellent « aller sur le terrain »), mais aussi dans les locaux syndicaux, à l'occasion des nombreuses visites de policiers. Ces contacts réguliers sont autant d'occasions de réaffirmer l'appartenance à un Voir notamment l'article d'introduction de la Nouvelle revue de psychosociologie consacré à cette idée de travail
syndical : LHUILIER D., MEYNAUD H-Y, « Introduction. même corps professionnel, de jouer sur le registre de la proximité : du fait de leur détachement et de leur éloignement du terrain, les syndicalistes doivent dire, redire et prouver leur identité policière auprès de leurs adhérents et, plus généralement, de leurs collègues. Leur statut de permanent syndical les éloigne, de fait, de leurs mandants449 : ils ne travaillent plus au même endroit, n'exercent plus les mêmes missions et développent des enjeux propres. Il leur est donc nécessaire de minimiser les différences, réelles ou supposées, et au contraire d'insister sur les points communs, l'identité commune. Ce travail de terrain s'appuie sur un maillage syndical particulièrement fin, dont les délégués des services sont les éléments de base ; mais se traduit aussi par de nombreux déplacements des membres du bureau départemental. Nous nous appuyons dans ce chapitre, comme dans le reste de la thèse, sur les observations menées dans un bureau départemental entre septembre 2014 et avril 2016. La campagne électorale, lors du dernier trimestre 2014, nous semble particulièrement intéressante en ce qu'elle sert de révélateur à de nombreuses pratiques. Nous avons en effet constaté que la campagne pour les élections professionnelles ne transforme pas en profondeur le travail syndical, mais qu'elle le rend plutôt plus intense. En dehors de ces périodes particulières, certains pans de l'activité sont bien présents mais peu visibles dans l'activité quotidienne. La campagne électorale nous les a rendus plus perceptibles, plus facilement observables450. Notre étude s'appuie sur un département majeur, l'un des plus gros de France, dans lequel la distinction entre les permanents et les délégués est bien marquée. Ce n'est pas toujours le cas : dans les départements les plus importants (en effectifs policiers comme en érents), elle est formalisée par le détachement à temps plein des secrétaires départementaux et, parfois, d'une partie de l'équipe ; mais la situation est sensiblement différente dans les départements plus petits et/ou aux effectifs syndicaux plus limités. La frontière entre secrétaire départemental et délégué de service est alors particulièrement ténue, le premier pouvant ne disposer que de quelques jours de détachement de plus que les seconds. Pour autant, ces acteurs n'occupent pas la même place dans la hiérarchie syndicale et n'exercent pas les mêmes fonctions. 449 Voir notamment MISCHI J., « Gérer la distance à la « base ». Les permanents CGT d'un atelier SNCF », Sociétés contemporaines, 2011/4 n°84, pp. 53-77.
450 Malgré un intérêt historique certain de la science politique pour les processus électoraux, les élections professionnelles sont un domaine particulièrement peu exploré par la recherche. Frédéric Lebaron souligne ainsi le désintérêt massif, de la part des chercheurs, des commentateurs et, en partie, des acteurs eux-mêmes, pour toutes les opérations de vote en dehors des « grandes élections politiques ». L
EBARON F., « Des votes invisibles? Ordre économique et pratiques de vote », Actes de la recherche en sciences sociales, 2001/5, n°140, pp. 68-72. 3.1 LES DELEGUES DE SERVICES AU COEUR DU TRAVAIL SYNDICAL
De très nombreux fonctionnaires de police adhèrent à une organisation syndicale, souvent dès le début de leur carrière. Si dans de nombreux milieux professionnels, l'adhésion représente en ellemême une forme d'engagement, ce n'est pas vraiment le cas dans la police : une part importante des adhérents ne s'implique pas dans la vie syndicale, ou seulement de manière très exceptionnelle. Il est donc essentiel pour comprendre les logiques de fonctionnement du syndicalisme policier de bien distinguer les adhérents des militants. Ces derniers sont, souvent, des délégués de service, en charge notamment de la diffusion des informations syndicales auprès de leurs collègues. Il nous semble important de revenir en détail sur le rôle des délégués de services 451. Malgré quelques recherches récentes452, les travaux sur les délégués syndicaux restent peu nombreux, parfois très localisés453 ou, souvent, datés454, et portent presque exclusivement sur des entreprises du secteur privé. Adelheid Hege, Christian Levesque, Gregor Murray et Christian Dufour présentent une recension des travaux sur le sujet455 et proposent quelques éléments de synthèse sur ce que sont les délégués : derrière des réalités parfois très variées, les auteurs les définissent comme « simultanément le visage du syndicat vers les salariés et l'employeur, et celui des salariés vers l'employeur et le syndicat »456. Pour autant, les auteurs soulignent l'indépendance et l'autonomie des délégués, dont le travail « ne se rédui[t] ni à l'exécution de prescrits institutionnels ni à une orthodoxie syndicale » 457. Malgré l'intérêt certain de ces postulats de départ, nous nous éloignons de la suite du raisonnement des quatre cherche urs dans la mesure où 451 Formellement, Unité-SGP-Police distingue les « délégués » des « correspondants », ces derniers ne disposant pas, contrairement aux premiers, de mandat lors des Commissions Exécutives Départementales. Dans les faits, très peu de services en dehors de la région parisienne disposent de correspondants, ce statut ayant été créé essentiellement pour valoriser l'investissement de certains militants. 452 LE CAPITAINE C. et al., « Contre vents et marées : le délégué au coeur du renouveau syndical », La Revue de l'Ires 2011/1 (n° 68), pp. 141-171 ; HEGE A. et al., « Les délégués, acteurs stratégiques du renouveau syndical? », La Revue de l'Ires 2011/1 (n° 68), pp. 3-18 ; CULTIAUX J., « Les tensions du travail d'organisation militant : l'exemple du travail syndical de terrain en Belgique », Article cité. 453 C'est notamment le cas de l'article de Catherine le Capitaine, Christian Levesque et Gregor Murray sur les délégués enseignants au Canada : LE CAPITAINE C. et al., « Contre vents et marées », Article cité. 454 SAYLES L.R., STRAUSS G., The Local Union: Its Place in the Industrial Plant, New York, Harper, 1953 ; BORASTON I., CLEGG H-A., RIMMER M., Workplace and Union. A Study of Local Relationships in Fourteen Trade Unions, London, Heinemann, 1975 ; BATSTONE E., BORASTON I., FRENKEL S., Shop Stewards In Action: The Organisation of Workplace Conflict and Accomodation, Oxford, Blackwell, 1977 ; BEYNON H., Working for Ford, Wakefield, EP Publishing, 1975. 455 HEGE A. et al., « Les délégués, acteurs stratégiques du renouveau syndical? », Article cité, pp. 5-6 en particulier. 456 Ibid, p. 4. 457 Ibid. ils mettent au coeur de leur analyse la situation de crise que traverse le syndicalisme qui se traduit, notamment, par un important déclin numérique qui, selon eux, isole fortement les délégués. La situation du syndicalisme policier français contredit cette idée : comme nous allons le voir, les délégués de services que nous avons étudiés sont, au contraire, insérés dans un réseau dense, incluant les permanents syndicaux, les adhérents, les autres délégués et, parfois, les sympathisants. Les quelques travaux portant sur les délégués syndicaux s'accordent à souligner l'importance de ces acteurs qui constituent le premier échelon de la pyramide syndicale et sont à ce titre essentiels au fonctionnement du syndicat. Le syndicalisme policier reproduit, de fait, une hiérarchisation des relations directement importée de l'institution policière458 : du secrétaire général au délégué de service, en passant par le permanent d'un bureau départemental ou le secrétaire régional, chacun a une place bien définie dans l'organisation. Le rôle de ce tout premier échelon est primordial, puisque c'est via le délégué que le syndicat s'incarne auprès des policiers. Comment devient-on délégué syndical? Les éléments de réponse sont à la fois nécessairement nombreux et attachés à l'individu, mais relèvent aussi de mécanismes sociaux souvent nonexplicités et/ou inconscients. On distingue ainsi quelques facteurs clés, non-exclusifs les uns des autres. Éric Verdier 459 explique une partie des trajectoires syndicales par la socialisation familiale : une part importante des fonctionnaires de police n'a pas choisi ce métier par vocation, mais plutôt par hasard ou par nécessité. Le syndicalisme peut alors être une façon de limiter le coût symbolique du statut policier dans des famille s marquées par une politisation de gauche ou ayant une forte culture syndicale. L'auteur note toutefois qu'il reste difficile de « compenser » un investissement professionnel par un investissement syndical, et qu'un « bricolage sémantique » reste nécessaire pour accorder les valeurs professionnelles et familiales. L'investissement syndical répond aussi à un sentiment de déclassement vécu par une partie des fonctionnaires de police, plus jeunes et plus diplômés que la moyenne. Pour Éric Verdier, il s'agit de policiers issus des classes moyennes qui ont choisi leur métier par nécessité et, souvent, « faute de mieux », c'est-à-dire en second, voire troisième choix460. 458 Cette organisation pyramidale n'est pas exclusive du syndicalisme policier, mais il nous semble que la logique de hiérarchisation est particulièrement poussée dans ce milieu professionnel. Voir la présentation de l'organisation du syndicat en annexes. 459 VERDIER E., Le syndicalisme des policiers, Opus cité. 460 Il s'agit notamment de candidats malheureux au concours d'officier. Ceux-ci mettent en avant leur amour du métier et leur volonté de servir l'intérêt général, mais regrettent souvent la perte de sens progressive de leur travail de policier. Benjamin, l'un des permanents du bureau départemental, exprime par exemple l'intérêt qu'il a éprouvé pour le travail syndical en ce qu'il lui a permis de donner, à nouveau, du sens à son activité en aidant ses collègues461. Entretien avec Benjamin, responsable départemental Unité-SGP-Police, 2015.
Enquêteur : Concrètement, qu'est-ce qui t'a donné envie de t'impliquer dans le syndicat? Tu parlais de cette permutation [obtenue à la suite de l'intervention d'un délégué]? Benjamin : Ben déjà voilà, la permutation qui a été un déclic, et puis je me suis dit Enfin, pourquoi est-ce qu'on rentre dans la police? Moi je suis rentré par vocation [], je te disais, mon père [qui était policier] me racontait des histoires [sur son travail], etc., pour moi la police c'était une vocation, vraiment. Je ne suis pas rentré parce que j'ai vu de la lumière quoi. Et ça en fait, ça a vachement joué [sur mon engagement syndical], parce que du coup, quand tu veux devenir policier par vocation, ce qui t'amène à devenir policier, c'est l'envie d'aider les autres, de trouver des solutions à des problèmes, de faciliter la vie des autres en fait, simplement, à travers autant l'interpellation des perturbateurs, mais également à travers l'aide sur un accident [], les réponses à la petite mémé qui t'appelle en disant qu'elle a un problème, voilà, tout ça. Tout ça, ça fait partie du travail de policier
, ce contact en fait. Et à travers le syndicat, en tout cas tel que le syndicat était fait [dans mon premier service d'affectation], je me suis dit, ça correspond tout à fait à ma conviction, à ce que je veux faire. C'est-à-dire que jusqu'à présent j'aide les personnes extérieures, je peux aider également les personnes à l'intérieur. C'est pour ça que je me suis engagé là-dedans. [] [Ensuite] comme beaucoup malheureusement de collègues qui sont rentrés par vocation, tu vas t'essouffler parce que, que ce soit la hiérarchie policière ou la population, tu as un manque de reconnaissance évident. A partir de là, tu continues comme beaucoup à faire ton travail, mais malheureusement la vocation finit par s'essouffler et tu te retrouves à faire ton travail par habitude plus que par réelle envie. sorti d'une merde, tu m'as fait muter, j'en pouvais plus, c'est super ». Enfin tu vois, tout ça ça m'a permis de retrouver un peu ce pourquoi j'étais rentré, pour aider les autres quoi. Ça redonne du sens à ce pourquoi je suis rentré dans la boite, clairement. 3.1.1 DE L'ADHERENT AU MILITANT : LA FORMATION SYNDICALE
Le passage de « simple adhérent » à « militant » (souvent synonyme de délégué de service) est un processus parfois long, marqué par plusieurs étapes, mais souvent formalisé par une formation462 : les adhérents potentiellement intéressés par l'activité syndicale sont repérés et sélectionnés par les délégués et les permanents du bureau départemental, et on leur propose rapidement463 de suivre une formation qui dure en général cinq jours 464. Les motivations pour participer à ce stage syndical sont diverses. Certains participants sont en effet déjà délégués dans leur service, ils ont donc une idée assez précise de ce qu'ils viennent chercher : des réponses concrètes aux problématiques du quotidien, des informations sur les rôles des différents échelons du syndicat pour, notamment, savoir à qui s'adresser et mieux répondre à leurs collègues. D'autres viennent par curiosité, et n'ont pas nécessairement l'intention de s'investir beaucoup plus dans la vie syndicale. La participation est par ailleurs facilitée par un détachement administratif au titre de la formation syndicale 465 : c'est un droit garanti aux fonctionnaires de police, qui ne peut que difficilement leur être refusé. La semaine de formation est donc, aussi, « une occasion privilégiée d'évasion de l'ordinaire professionnel »466. Nous avons assisté et participé467 à une formation d'une semaine regroupant 17 policiers (cinq femmes et douze hommes), de 32 ans à « 50 ans passés » (la moyenne d'âge se situant aux 462
Sur les questions de formation syndicale, voir notamment : BRU
CY
G,
LAOT
F. LESCURRE E., Former les militants, former les travailleurs. Les syndicats et
la formation
de
puis la second
e
guerre mondial
e
, Paris,
L'
Harmattan
, 2015 ; ETHUIN N., YON K. (Dir.), La fabrique du sens syndical : la formation des représentants des salariés en France : 1945-2010, Broissieux, éditions du Croquant, 2014. 463 La formation est même parfois le point d'entrée dans le syndicat, proposée dès les premiers contacts avec l'adhérent potentiel. Si, dans le département étudié, cette pratique est rare pour Unité-SGP-Police, elle l'est beaucoup moins pour l'UNSA-Police, notamment du fait d'un réseau de délégués moins dense : dans les services où ils sont peu ou pas implantés, les permanents UNSA-Police proposent facilement aux adhérents potentiels d'acquérir immédiatement le statut de délégué. 464 Le format de stage est identique à l'UNSA-Police, Alliance propose des stages allant de 2 à 5 jours. 465 Décret n°84-474 du 15 juillet 1984. 466 Nous
reprenons ici l'expression employée par Karel Yon dans son article sur les stages de formation FO : YON K., « Quand le syndicalisme s'éprouve hors du lieu de travail. La production du sens confédéral à Force Ouvrière », Article cité, p 73.
| 29,984
|
hal-03607972-Tradevi_web_HD_A4.txt_1
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,022
|
TraDeVi, trajectoires de dépérissement des vignobles. Plan dépérissement : Recherche et transfert, quelles synergies ?, Jan 2020, Beaune, France. , 2020. ⟨hal-03607972⟩
|
None
|
French
|
Spoken
| 413
| 746
|
HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés. TraDeVi
TRAJECTOIRES DE DÉPÉRISSEMENT DES VIGNOBLES QUELLES TRAJECTOIRES DE PARCELLES VITICOLES FAVORISENT-ELLES LE DÉPÉRISSEMENT?
Vulnérabilité vigne, sol, système technique • Identifier les déterminants physiques et biologiques du dépérissement des ceps à court et long terme. • Comprendre les relations entre gestion technique et trajectoires de parcelles dépérissantes. • Agréger les connaissances sur le dépérissement dans des modèles. • Produire des grilles de lecture pour le diagnostic et des indicateurs pour la gestion. Aléas climat, bioagresseurs Risque de dépérissement Augmentation de la vulnérabilité Réduction de croissance Perte de production Mortalité Exposition stress, phénologie, pérennité D’après Breda & Peiffer, 2014
UNE DÉMARCHE DE DIAGNOSTIC, DE LA PARCELLE À L’EXPLOITATION AGRICOLE
• En parcelles expérimentales (CA Aude, Inra Pech-Rouge, BSA Luchey-Halde) - qualité physique et biologique des sols - état physiologique et sanitaire de la vigne - dendrochronologie et historique de croissance de la vigne • Sur des réseaux de parcelles de viticulteurs (Bordeaux, Cognac, Languedoc) De nouveaux indicateurs de diagnostic : - sols - bioagresseurs - vigne - pratiques culturales
DES INDICATEURS ET DES MODÈLES
Représentation des connaissances liées aux maladies du bois Détection des ceps manquants par analyse d’image aérienne IGN (Edouard S, Coulouma G) Ancienneté de l’arrêt d’activité cambiale et état sain/dépérissant des ceps Calibration de la relation entre δ13C et RU į& Nombre d’années depuis l’arrêt de l’activité cambiale Données : 11 rayons, 34 ceps de Vitis vinifera Vivants Dépérissants Morts en 2017 Morts avant 2017 10 8 6 4 2 0 v (Coulouma G, Prevot L, Lagacherie P) d m État sanitaire (Mescolini M, Breda N, Ponton S, Smits N) x (Simon L, Heinrich G, Métral R, Claverie M)
Christian GARY UMR SYSTEM - INRAE Montpellier [email protected]
Montpellier SupAgro, Bordeaux Sciences Agro, l’IFV, les Chambres d’agriculture de l’Aude et de l’Hérault et le lycée agricole de Rivesaltes participent au programme Tradévi Projet réalisé avec le soutien financier du Ministère de l’Agriculture et de l’Alimentation, de
France
Agri et du CNIV (Comité National des Interprofessions des Vins à appellation d’origine et à indication géographique).
| 29,168
|
hal-04600780-L%27incorporation%20de%20l%27Autre%20dans%20l%27Art%20.txt_1
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
L'incursion de l’Autre dans les circuits d’art contemporain. À contre-courant : arts, politique et transformation sociale, 25, Ritimo, 2024, Passerelle, 978-2-914180-98-6. ⟨hal-04600780⟩
|
None
|
French
|
Spoken
| 3,649
| 6,034
|
L incursion de l’Autre dans les circuits ’art contemporain
HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés.
L’incorporation de l’Autre dans les circuits d’art contemporain Marcelle Bruce Université de Lille
Comme dans d’autres domaines de la réalité, les profonds changements du dernier tiers du XXe siècle ont bouleversé le champ artistique. Le débat pendant les années 80 fut marqué par la crise de la théorie moderne de l’art, par la critique de l’eurocentrisme et par l’ouverture à d’autres formes de représentation. La reconnaissance du caractère eurocentrique de la théorie de l’art et des expositions des circuits de l’art contemporain ont conduit à l’émergence de positions critiques et d’un discours dans les pratiques artistiques, curatoriales et théoriques sur l’altérité et l’identité. Ces discours soulevaient des questions sur l’autorité de parler de l’identité ou de l’authenticité d’un groupe, ainsi que sur les narratives capables d’expliquer les différents mouvements locaux actuels. La question de l’intégration du local et du global devient centrale incitant musées, commissaires d’exposition, théoriciens et critiques d’art à entreprendre des efforts pour désoccidentaliser les institutions artistiques et accueillir les débats de cette nouvelle ère globale. En 1989, marquant le début du tournant global de l’art selon l’historiographie dominante, trois expositions emblématiques ont ouvert le débat depuis trois lieux d’énonciation distincts : Magiciens de la terre au Centre Pompidou et à la Villette à Paris, associée à une critique eurocentrée de l’eurocentrisme ; The Other Story à la Hayward Gallery à Londres, liée à la critique postcoloniale de l’eurocentrisme ; et la III Biennale de La Havane, conçue comme une réponse depuis la périphérie. La critique eurocentrée à l’eurocentrisme : Les Magiciens de la Terre Du 18 mai au 14 août 1989, les galeries du Centre Pompidou et de La Grande Halle de la Villette ont accueilli l’exposition Les Magiciens de la Terre, se revendiquant comme la première exposition mondiale d’art contemporain. Organisée juste avant la chute du Mur de Berlin, elle symbolisait la fin des idéologies et la séparation des mondes, préfigurant ainsi l’avènement d’une ère globale de l’art où tou·tes les artistes partageraient une scène commune. Avec cette exposition, le commissaire Jean-Hubert Martin répondait aux débats de l’époque et aux critiques de l’eurocentrisme dans les circuits artistiques. Selon Martin : L’idée communément admise qu’il n’y a de création en arts plastiques que dans le monde occidental ou fortement occidentalisé est à mettre au compte des survivances de l’arrogance de notre culture. Sans parler de ceux qui pensent toujours que, parce que nous possédons une technologie performante, notre culture est supérieure aux autres ; même ceux qui déclarent sans ambages qu’il n’y a pas de différence entre les cultures ont souvent bien du mal à accepter que des œuvres venues du tiers-monde puissent être mises sur un pied d’égal avec celles de nos avant-gardes1. L’objectif de Magiciens était d’intégrer les régions non-occidentales invisibles dans les circuits de l’art contemporain. Pour ce faire, Martin a remis en question la notion même d’art et le clivage moderne entre art et artisanat qui avait servi jusqu’alors à institutionnaliser une partition esthétique et ethnographique entre l’Occident et le Non-Occident, afin d’atteindre une condition véritablement globale de l’art. L’exposition réunissait une centaine d’artistes, dont la moitié provenait des territoires géographiques « jusqu’alors ignorés par les acteurs d’un mode occidental encore tout-puissant et ethnocentré »2. Martin a choisi le titre Les Magiciens de la Terre pour interroger les concepts d’art et d’artiste liés à une conception euro-moderne. Il a utilisé le terme « magie » pour éviter de qualifier avec le mot « art » des créations provenant de sociétés qui ne connaissent pas ce concept3. L’exposition présentait des juxtapositions inattendues pour créer des « chocs visuels » visant, selon Martin, à stimuler la pensée. Par exemple, une transcription en pictogrammes d’un chant nia-ikala destiné au traitement de la maladie psychiatrique était présentée à côté d’une sculpture de Mario Merz (Italie), ou une moquette de John Knight (États-Unis) en face d’un Fronton de la Maison des hommes d’Apangaï commandée en 1987 lors d’un voyage du commissaire. Dans le même espace, trois moines tibétains ont réalisé un mandala éphémère en poudre minérale, dispersée dans le canal de Saint-Martin après l’exposition. Cyprien Tokoudagba du Bénin a créé un univers issu du panthéon vaudou, organisant également une cérémonie vaudou à laquelle il a invité la communauté béninoise de Paris. Joe Ben Jr, fils d’un Medicine Man navajo du Nouveau que, a réalisé un sand painting « conformément à la tradition des rites de guérison ». A la fin de l’exposition les pigments ont été rapportés et dispersés dans le désert. 1 Préface au catalogue Magiciens de la Terre de 1989 in : Annie Cohen-Solal et Jean-Hubert Martin, éd., Magiciens de la terre: 1989 ; 2014 ; retour sur une exposition légendaire (Paris: Éd. Xavier Barral [u.a.], 2014), 131. 2 Avant-propos Cohen-Solal et Martin, 5. 3 Préface au catalogue Magiciens de la Terre de 1989 in : Cohen-Solal et Martin, 133.
L’objectif de cette exposition était de corriger le faux universalisme derrière lequel l’occidentalisme se cachait et de décentrer l’Occident pour incorporer l’Autre dans une relation géo-esthétique plus horizontale. Cependant, le résultat a été pour le moins polémique. Malgré la reconnaissance de Martin sur l’impossibilité d’utiliser des critères « neutres » dans le choix des artistes et des œuvres exposées, les critiques ont souligné que la prétention de spatialiser la catégorie d’art pour en faire une catégorie post-eurocentrée et post-occidentale nécessite beaucoup plus qu’une simple confrontation entre différents univers créatifs. Pour une partie des critiques, la tentative de Martin est restée, malgré toute sa bonne volonté, prisonnière du multiculturalisme eurocentré qui prend ses propres critères pour des critères universels et qui pense que toute façon de faire peut être traduite dans les termes de référence et les valeurs occidentales4. Un simple coup d’œil au catalogue de l’exposition suffit pour se rendre compte que, malgré la bonne volonté de Martin, la représentation de la création non-occidentale est restée cantonnée aux clichés de la tradition. Le choix des artistes renforçait une image statique de l’artiste africain, asiatique ou latino-américain, imperméable à la modernité et à l’urbanisation qui en découle. Les critiques les plus radicaux·ales ont considéré que « l’exposition ne fut qu’une opération ethnocentrique et hégémonique qui n’a pas pu échapper à la considération des autres comme des primitifs et que la volonté de mettre en relation des codes culturels opposés n’est devenu qu’une confrontation esthétique dans laquelle la supériorité de la culture occidentale a été toujours supposée »5. Loin de résoudre le problème de l’eurocentrisme du circuit de l’art contemporain, Magiciens a rendu évident que le clivage géo-esthétique créé par la Modernité/Colonialité va au-delà des aspects purement esthétiques ou culturels et révèle une structure épistémique de pouvoir où des aspects raciaux, économiques, politiques et de genre se tissent. Les Magiciens de la Terre a explicité la nécessité de provincialiser l’Europe mais a laissé intact l’Occident comme sujet de l’histoire. Cependant, l’exposition a réussi à positionner le débat sur l’incorporation de l’Autre dans l’agenda de l’art contemporain. Bien que les efforts de Martin et de son équipe sont restés dans un cadre eurocentrique, l’exposition stimulera,
4 Jean Fisher, « The Syncretic Turn. Cross-Cultural Practices in the Age of Multiculturalism », in Theory in contemporary art since 1985, par Zoya Kocur et Simon Leung (Malden, MA: Blackwell Pub, 2005), 235. 5 Ana María Guasch, El arte en la era de lo global, 1989-2015, Alianza forma (Madrid: Alianza Editorial, 2016), 109. comme aucune autre, le débat postcolonial et passera à l’histoire comme l’exposition qui a inauguré le tournant global de l’art. La théorie postcoloniale dans le monde de l’Art : The Other Story
La réponse du monde anglo-saxon au défi d’incorporer des artistes et des pratiques de la périphérie et de décentraliser le circuit de l’art s’est articulé autour d’une politique du multiculturalisme. Ce changement, remplaçant le préfixe « mono » par « multi » marquait symboliquement la fin d’un monoculturalisme lié à la Modernité et au colonialisme. Appliquée principalement au Canada, aux États-Unis et en Grande Bretagne dans les années 1980 et 1990, cette politique a engendré deux approches : une ligne conservatrice, souvent défendue par les majorités blanches, et une ligne libérale, soutenue par les groupes minorisés. Au sein des institutions artistiques de ces pays, le multiculturalisme s’est matérialisé par une distribution de la représentativité des communautés existantes, instaurant des quotas de diversité et adoptant un discours politiquement correct. Cependant, cette approche a été critiquée par certain·es théoricien·nes culturel·les et artistes, considérant qu’elle maintenait le pouvoir des institutions occidentales pour définir l’Autre. Rasheed Araeen, artiste pakistanais arrivé à Londres en 1964, a vivement critiqué le multiculturalisme, le considérant comme un obstacle à un paradigme global inclusif, où l’œuvre d’art prime sur l’identité de l’artiste. Jean Fisher a également souligné le paradoxe de la multiculturalité, créant parfois un phénomène d’exotisation des artistes non-européen·nes dans les circuits de l’art contemporain. Après des années d’activisme pour la reconnaissance des artistes non-blanc·hes en Grande-Bretagne, Rasheed Araeen a réussi à organiser l’exposition The Other Story, présentée à la Hayward Gallery à Londres entre le 29 novembre 1989 et le 4 février 1990. L’objectif t de rendre visible le travail des artistes visuel·les d’origine africaine, asiatique et caribéenne résidant au Royaume-Uni de l’après-guerre. Souvent considérée comme l’antithèse de Les Magiciens de la terre, une différence clé réside dans le fait que The Other Story a été conçue par un artiste non-blanc directement concerné par le propos de l’exposition. Cela incarne un locus d’énonciation, invisible dans Magiciens, donnant voix aux subalternes de l’histoire de l’art britannique et soulignant l’inégalité et l’exclusion dans l’histoire officielle. Toutefois, cette position montre un paradoxe : dénoncer l’exclusion institutionnelle tout en se conformant à ses règles, comme s’il y avait implicitement un désir d’inclusion et d’approbation. Malgré une réception initiale tentée d’ethnocentrisme voir de racisme, et les critiques autour de la peu de représentations d’artistes féminines, avec le temps que The Other Story acquerra une importance centrale dans l’histoire de l’art contemporain et des études sur l’art global. Parmi les 24 artistes exposé·es, 14 intègreront par la suite la collection de la Tate Gallery. Aujourd’hui, The Other Story est reconnue comme une exposition marquante dans l’histoire de l’art. Peu après cette exposition, durant la transition entre le Thatchérisme et le Laborisme en Angleterre, le Conseil d’Arts Britanniques a introduit une nouvelle politique culturelle appelée le « New Internationalism ». Cette initiative visait à redéfinir les politiques d’identité et la gestion des ressources pour les artistes britanniques issu·es des minorités ethniques. En 1991, le Conseil d’Arts Britanniques a officiellement fondé l’INIVA (Institute of New International Visual Arts) dans le but de transcender le faux internationalisme d’après-guerre, limité à l’Occident, et le multiculturalisme postmoderne qui maintenant l’Autre dans l’exclusion. Cette création témoignait de la volonté d’écouter voix des subalternes et de s’engager vers un système véritablement global. Cependant, la réception de cette nouvelle politique a été mitigée. Les critiques les plus significatives considéraient qu'il s'agissait d'une tentative de corriger le discours universaliste de l’art pour le rendre global sans remettre en question les fondements géo-épistémiques et géoéconomiques du schème centre-périphérie et de la Modernité elle-même.
L’Amérique Latine et le circuit international de l’art contemporain
L’art latino-américain, tout comme l’identité latino-américaine, a traversé un processus complexe et contradictoire d’autonomisation et de construction d’identité tout au long du XXe siècle. Pour s’intégrer aux circuits internationaux de l’art, il a dû se « latino-américaniser » pour, une fois reconnu à l’échelle internationale, se libérer de cette étiquette. Historiquement, l’art de l’Amérique Latine a été perçu, tant de l’extérieur que de l’intérieur, comme en retard ou dérivatif, constamment comparé aux mouvements et aux techniques européennes d’abord, puis états-uniennes. Ainsi, il incombait aux artistes, critiques et intellectuel·les latino-américain·es de construire une personnalité distincte qui le positionnerait comme un art à part entière. Jusqu’à la fin des années 80, l’obsession de la critique artistique latino-américaine était de développer une pensée autonome. Cependant, cette quête d’une personnalité autonome a souvent conduit à la défense d’un art lié à des contenus « propres », généralement assimilés aux représentations mythologiques et folkloriques des peuples autochtones. À la fin des années 80, l’art latino-américain a connu une visibilité internationale croissante. Néanmoins, le traitement dans les musées et galeries, ainsi que la réception des œuvres, ont continué à refléter une relation de subordination centre-périphérie. Selon Roberto Puntual, à la fin des années 80, « [pour l’Europe], l’Amérique latine n’a pas encore dépassé l’enfance de la modernité : elle la traite comme un enfant qui balbutie et se débat et qui ne sait imiter que ceux qu’il admire. Une vision préjudiciable et intéressée, sans aucun doute, de celui qui se défend en se sentant menacé dans son espace »6. Il lance un appel : « Peut-être ce qui manque de toute urgence, c’est que les pays en marge du circuit artistique international [...] puissent prendre en main leur propre destin et prouver, sans la médiation des autres, qu’ils génèrent et administrent des idées en plus d’artefacts ». La Biennale de La Havane sera un bon exemple d’une réponse à cet appel.
1989 : La III biennale de La Havane
La III Biennale de La Havane, tenue du 27 octobre au 31 décembre 1989, a marqué un tournant significatif : il s’agit de la première exposition internationale en dehors du circuit euroétatsunien, avec 50 pays représentés. Contrairement aux éditions précédentes, cette biennale a inclus l’Europe et les États-Unis de manière particulière : les artistes sélectionné·es de ces régions provenaient des diasporas du Tiers Monde. Le Royaume-Uni était représenté par des artistes du groupe afro-asiatique établi en Grande Bretagne, et les États-Unis par des artistes de la frontière San Diego-Tijuana. Ce choix représentait une rupture d’avec le modèle centrepériphérie pour envisager la globalité depuis une perspective postcolonial ou du « Sud global ». Le débat autour du concept de « Tiers Monde » a mis en lumière les différences d’approche entre les perspectives latino-américaines et anglo-saxonnes. Alors que dans le monde anglophone, le terme était devenu une catégorie d’identification raciale définissait les populations non-blanches, en Amérique Latine, il était toujours utilisé dans son acception Roberto Puntual, « La mirada del viejo mundo hacia el nuevo mundo », in Visión del Arte Latinoamericano en la década de 1980 (Lima, Perú: Centro Wilfredo Lam, 1994), 68. 6 originelle, faisant référence à la Conférence de Bandung de 19557. En mobilisant ce terme, les organisateur·rices de la Biennale de La Havane cherchaient à donner de l’espace aux secteurs subordonnés, y compris à ceux subordonnés à l’intérieur des États-nations, tels que les nonblanc·hes en Grande Bretagne ou les autochtones en Amérique Latine. Sous le thème « Tradition et contemporanéité », la biennale comprenait une exposition centrale au Musée national des beaux-arts intitulée « Trois Mondes » et quatre noyaux thématiques : le premier abordait les mythes, rituels ou héritages de l’histoire nationale, le deuxième les apports de la culture populaire à l’art contemporain, le troisième était constitué de sept expositions critiques et humoristiques sur des événements politiques et sociaux et enfin, le quatrième noyau était composé d’ateliers, de visites à des studios et discussions avec des artistes, critiques et des universitaires, etc. La troisième biennale de La Havane a été comparée par les critiques d’art à « Magiciens de la Terre ». Or, Luis Camnitzer a souligné la différence de moyens entre les deux expositions, mettant en lumière l’approche unique des commissaires de La Havane. Selon Camnitzer : La Biennale de La Havane était exempte de tout soupçon de paternalisme. L'exposition ne présentait aucun artifice curatorial ; les œuvres étaient essentiellement exposées sous la responsabilité culturelle de l'artiste. Alors que les deux expositions se permettaient de mélanger l'art "élevé" avec l'art populaire, La Havane ignorait le concept à la mode d'« altérité ». À Paris, l'« altérité » déterminait l'intention autant que la réalisation. Dès le départ, le titre ouvrait les portes à l'exotisme, à un art qui ne suivait pas les règles hégémoniques et qui ne se définissait souvent pas comme de l'art. Le fait de partager la catégorie de « magicien » avec des artistes hégémoniques inclus dans l'exposition a contribué à effacer les traces culpabilisantes des organisateurs [...]. Dès que l'artifice parisien a été contraint de partager l'« altérité », les cadres de référence ont changé violemment. L'« altérité » a été soulignée davantage par le changement de contexte dans lequel les œuvres non artistiques étaient insérées. S'il y avait une quelconque homogénéité dans l'exposition, elle était créée par les méthodes de représentation. C'était l'un des spectacles les plus spectaculaires parmi les habituelles superproductions muséographiques occidentales. La Havane, en revanche, a réussi à créer un ensemble organique par une simple accumulation [...] Magiciens, événement isolé et probablement non reproductible, avait la vertu de clarifier les questions les plus importantes de la Biennale de La Havane ; La Havane ne devait pas être un forum d'« altérité », mais de « ceci », où « ceci » est ce qui nous définit, et non pas « comment ils nous définissent »8. 7 Si bien aucun pays latino-américain fut représenté à la Conférence de Bandung de 1955, plusieurs pays de l’Amérique Latine, et notamment Cuba, joueront un rôle important dans le mouvement des pays non-alignés. La première conférence tricontinentale des pays non-alignés eut lieu à La Havane en janvier de 1966. Dans cette conférence, l’Organisation de Solidarité avec les peuples de l’Asie, l’Afrique et l’Amérique Latine (OSPAAAL) a été fondée. Les principes du mouvement des pays non-alignés (ou Tiers Monde) furent la lutte contre l’impérialisme et pour la libération nationale, pour la paix et le désarmement nucléaire. 8
Luis
Camnitzer
,
« The Third Biennial of Havana
»,
Third Text
4,
no 10
(
mars
1990
):
81, https://doi.org/10.1080/09528829008576254. La Biennale de La Havane s’est ainsi affirmée comme une alternative artistique clairement énoncée depuis le Tiers Monde comme lieu subalterne. La décennie des années 90 marque un essor pour l’art latino-américain. Cependant, pour que l’art latino-américain puisse véritablement s’intégrer dans le circuit global, il devait se libérer des étiquettes le dépeignant comme fantastique, magique et folklorique. Les discours postmodernes en Amérique Latine remettent en question les concepts de nation et de culture nationale, brisant les conceptions identitaires homogénéisantes, notamment le mythe du métissage, ainsi que la distinction entre « haute » culture et culture « populaire ». Bien que le pluralisme puisse intégrer la différence sans remettre en cause le statu quo, et donc profiter comme idéologie au néo-libéralisme, les années 90 ont également vu émerger des mouvements autres, des autres, et avec d’autres ressources créatives de lutte, tels que celui de l’Armée Zapatiste de Libération Nationale, qui ont transformé l’image de la façon dont l’Amérique Latine était perçue, ainsi que la preception qu’elle avait d’elle-même. Parler depuis l’Amérique Latine comme région n’écarte pas les relations asymétriques de la géo-esthétique du pouvoir et peut, au contraire, dissimuler les rapports de pouvoir propres aux sociétés latinoaméricaines. Un·e artiste latino-américain·e blanc·he·s, métis·se, afro ou autochtone n’ont pas forcément les mêmes conditions de production et d’énonciation artistique. À l’effort d’incorporer l’Amérique Latine au récit global de l’art, il était nécessaire d’ajouter un effort pour décoloniser le discours artistique à l’intérieur même de la région. Le risque d’incorporer la « périphérie » au discours hégémonique est ce que le théoricien de l’art mexicain Joaquín Barriendos appelle le « globocentrisme esthétique », comme forme contemporaine de l’eurocentrisme esthétique. Le « globocentrisme esthétique » prétend intégrer toutes les sociétés de la planète, c’est-à-dire l’altérité historiquement niée par la Modernité, à un circuit et une histoire de l’art qui se présentent comme horizontaux et polycentriques, mais qui restent soumis aux normes et au contrôle des centres de pouvoir occidentaux, rendus invisibles par le discours « globocentrique ». Dans cette idée du globocentrisme esthétique, l’art contemporain devient synonyme d’art global mais reste défini par un modèle occidental de circulation et de visibilité. Dans ce contexte, la subalternité devient le nouvel « actif » ou la nouvelle « valeur » que les institutions d’art contemporain recherchent, afin de désoccidentaliser leurs collections et discours. Cépendant, l’incorporation des artistes non européen·ne·s ou états-unien·ne·s ne suffit pas. La tâche à laquelle le monde de l’art doit désormais faire face est celle de se décoloniser.
Bibliographie Araeen, Rasheed. « Editorial: Why Third Text? » Third Text 1, no 1 (septembre 1987): 3-5. https://doi.org/10.1080/09528828708576169. Barriendos Rodríguez, Joaquín. « La idea del arte latinoamericano. Estudios globales del arte, geografías subalternas, regionalismos críticos ». Universitat de Barcelona, 2013. http://hdl.handle.net/2445/41383. Camnitzer, Luis. « The Third Biennial of Havana ». Third Text 4, no 10 (mars 1990): 79-93. https://doi.org/10.1080/09528829008576254. Cohen-Solal, Annie, et Jean-Hubert Martin, éd. Magiciens de la terre: 1989 ; 2014 ; retour sur une exposition légendaire. Paris: Éd. Xavier Barral [u.a.], 2014. Fisher, Jean. « Autres cartographies ». Les Cahiers du Musée national d’art moderne, no 28 (Et 1989): 77-82. ———. « The Syncretic Turn. Cross-Cultural Practices in the Age of Multiculturalism ». In Theory in contemporary art since 1985, par Zoya Kocur et Simon Leung, 233-41. Malden, MA: Blackwell Pub, 2005. Graham-Dixon, Andrew. « Pride and Prejudice ». The Independent, 5 décembre 1989, sect. Arts. Guasch, Ana María. El arte en la era de lo global, 1989-2015. Alianza forma. Madrid: Alianza Editorial, 2016. Mignolo, Walter. « Afterword: Human Understanding and (Latin) American Interests--The Politics and Sensibilities of Geocultural Locations ». Poetics Today 16, no 1 (1995): 171. https://doi.org/10.2307/1773227. Puntual, Roberto. « La mirada del viejo mundo hacia el nuevo mundo ». In Visión del Arte Latinoamericano en la década de 1980, 65-68. Lima, Perú: Centro Wilfredo Lam, 1994.
| 53,828
|
49/hal.archives-ouvertes.fr-tel-02375888-document.txt_10
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 8,589
| 13,487
|
Les compétences linguistiques doivent être séparées dans chaque langue (Castellotti, 2001) Perturbe l'apprentissage pour des jeunes enfants (Nante, 2008) Un avantage pour des enfants plus âgés (Nante, 2008) La volonté et l'imitation sont présentées par les professeurs comme des solutions contre les difficultés scolaires (Auger, 2013) L'usage des langues Pratique exclusive de la langue d'origine (Nante, 2008) Utilisation quotidienne de la langue maternelle (Lambert, 2005 ; Clerc & Rispail, 2008) Pratique du français à la maison (Nante, 2008) Le français n'est parlé qu'à l'école (Nante, 2008) Une « maîtrise rêvée du français » : les parents ne parlent pas français (Clerc & Rispail, 2008) Un plurilinguisme particulier vs un plurilinguisme élitiste, choisi Langues minoritaires et de la migration non associées au plurilinguisme (Nante, 2008 ; Nante, 2013) non perçues comme des langues (Auger, 2013) • • • • Élèves non considérés comme : plurilingues (Nante, 2008 ; Nante & Trimaille, 2013) des individus possédant une autre langue (Alby & Léglise, 2014) Langues valorisées et prestigieuses ou non valorisées mais ne faisant pas l'objet de représentations négatives (Nante, 2008 ; Nante & Trimaille, 2013) 221 • non francophones (Laparra, 2003; Alby & Léglise, 2014) Un glissement entre langue et vécu Milieu familial peu stimulant, peu disponible, peu intéressé par la scolarité, peu aidant, voire gênant dans le travail scolaire (Kouamé, 2013) Confusion entre milieu social défavorisé et langue ne permettant pas la communication (Auger, 2013)
Tableau 10 : Grille d'analyse thématique des représentations des professeurs
La notion de « difficulté scolaire en matière de langue(s) » proposée par Auger (2013) correspond précis à la lecture que nous voulons faire de ces entretiens. À partir de la description des difficultés des élèves, nous analysons quelles sont les représentations des professeurs sur le plurilinguisme familial en lien avec la maîtrise de la langue de scolarisation. Les propositions219 retenues seront distribuées dans les 5 thématiques (« une conception monolingue du plurilinguisme », etc.) à partir de critères et de sous-critères alimentant chaque thématique. Il arrive qu'une proposition soit inscrite dans au moins deux thématiques. Les thématiques sont classées selon deux axes : la difficulté et la réussite scolaires. Précisons un élément important au sujet de la réussite. Telle que nous la modélisons, la réussite est analysée dans l'objectif d'étudier les représentations sous-jacentes. À titre d'exemple, lorsque nous analysons la proposition suivante « Marie n'a aucune difficulté scolaire. Elle maîtrise le français et l'espagnol aussi bien à l'oral qu'à l'écrit » insérée dans la thématique « une conception monolingue du plurilinguisme », nous sous-entendons que le professeur perçoit le plurilinguisme comme deux monolinguismes ajoutés. Nous tentons par-là de dépasser la simple analyse « le professeur perçoit les élèves monolingues comme des élèves en réussite », etc. La ventilation des propositions dans une grille préconstruite limite l'inférence. Nous estimons, en effet, qu'il s'agit d'une représentation liée à la difficulté ou à la réussite au regard de la théorie. Cependant, la question de l'inférence n'est jamais évacuée puisque, d'une part, le 219 « Par proposition, nous entendons une affirmation, une déclaration, un jugement (voire une question ou une négation), en somme, une phrase ou un élément de phrase posant, telle la proposition logique, une relation entre deux ou plusieurs termes. C'est en principe une unité qui se suffit à elle-même (prononcée seule, elle a un sens []) ; elle doit pouvoir être affirmée ou niée, envisagée séparément ou dans ses relations avec d'autres, prononcée exacte ou inexacte, on doit pouvoir, à chaque fois, la faire précéder des mots : " le fait que ". » (Bardin, 1995, p. 230). 222 contenu des extraits n'est pas toujours explicite, et, d'autre part, les discours n'obéissent pas toujours à une logique dichotomique (difficulté ou réussite). Par ailleurs, la nature même de l'analyse thématique – soit le prélèvement et la distribution d'extraits dans des thématiques – accentue l'inférence et rend parfois difficile l'interprétation. Il est donc nécessaire de faire appel à d'autres éléments notamment contextuels et discursifs. Ainsi, par exemple, la proposition « la maman ne parle pas français » interprétée seule annonce quelque chose de l'ordre de l'absence de compétences en français. Reliée à d'autres propositions telles que « cela fait dix ans qu'elle est en France » peut être interprétée comme une représentation autour d'un refus d'apprendre la langue française et peut-être de s'intégrer dans la société. 6.2.2.2.2.1.2 Analyse du discours
L'analyse du discours permet d'interpréter les premiers résultats obtenus à travers l'analyse thématique. Elle se base sur une analyse de l'énonciation (Bardin, 1995) Selon Bardin (ibid.), l'analyse de l'énonciation se décline en trois niveaux d'analyse : 1. une analyse syntaxique et paralinguistique qui étudie les structures formelles grammaticales. Nous serons attentive à l'emploi de la négation comme marqueur potentiel de représentations négatives : « il ne sait pas/il ne fait pas », etc. 2. une analyse logique qui observe l'agencement du discours. Nous regarderons comment s'articulent les thématiques entre-elles. Existe-t-il une récurrence dans les thématiques? 3. une analyse des éléments formels atypiques (les omissions, les récurrences, les failles logiques, les silences, etc.). Rappelons que l'une des limites de l'étude des représentations à partir de l'entretien réside dans le butinement d'éléments saillants activés par le contexte de l'énonciation et par la situation de recherche (Boutanquoi, 2008). Ainsi, lors de l'analyse de l'énonciation, nous tacherons d'être prudente dans l'interprétation de certaines propositions au regard de la spécificité même de l'oral : En effet, la connivence propre au dialogue oral implique plusieurs aspects à prendre en considération lors de l'analyse. Nous serons vigilante dans l'interprétation de l'emploi de déictiques, d'expressions communes, de phrases inachevées pour désigner des pratiques langagières et des personnes. Une fois encore, nous nous appuierons sur l'économie générale 223 de l'entretien pour estimer s'il s'agit de marqueurs propres à l'oral ou liés à des représentations. Par exemple, la proposition « cette langue » peut être une manière de désigner une langue dont on a parlé précédemment ou un marqueur de dévalorisation. Chaque entretien est donc ensuite analysé en fonction de l'analyse de l'énonciation. Puis nous lions l'analyse thématique et énonciative pour l'interprétation. L'entretien est finalement décrit ainsi :
Colonne 1 Colonne principale Entretien Thématique Colonne 3 Colonne 4 Colonne 5 Énonciation Interprétation Conception monolingue du plurilinguisme Glissement entre langue et vécu Usage du je Une maîtrise rêvée du français etc. Emploi de la négation Récurrences Usage du nous Analyse thématique + Analyse du discours = Analyse finale Tableau 11 : Exemple d'analyse complémentaire des entretiens
La figure sous le tableau résume les étapes d'analyse de l'entretien : d'abord une analyse thématique (colonne 1) basée sur des passages signifiants préalablement choisis (colonne principale où figurent les propositions retenues). Puis une analyse du discours portée sur l'énonciation (colonne 4). Et enfin, l'interprétation de la proposition (colonne 5) en tenant compte à la fois de l'analyse thématique et l'analyse du discours au regard de la contextualisation (colonne 3). La contextualisation est la prise en compte de l'écologie dans laquelle émerge la proposition. En d'autres termes, nous explicitons la raison pour laquelle le professeur déclare telle ou telle chose : lui avons-nous posé la question? Avons-nous fait des suggestions? Le processus d'analyse n'est pas toujours linéaire. L'analyse de discours, puisqu'elle implique de prendre en compte l'économie générale de l'entretien, permet de revenir sur des propositions issues de l'analyse thématique (changement de thématique, ajout de propositions etc.). Aussi, comme nous l'avons précédemment signalé, le discours des professeurs ne s'inscrit pas forcément dans une relation dichotomique difficulté/réussite. Par ailleurs, lors de l'analyse thématique derrière l'apparence d'une démarche mécanique se cache toujours une part 224 d'interprétation. Nous validons ou infirmons cette interprétation en fonction de l'analyse d'énonciation. 6.2.3. Les séances de classe
Les séances de classe servent à étudier l'influence des pratiques langagières des alloglottes sur les pratiques d'enseignement en éducation prioritaire en lien avec les dispositions langagières des élèves alloglottes et les représentations des professeurs. Nous testons la seconde hypothèse selon laquelle l'épistémologie pratique du professeur et les dispositions langagières des élèves alloglottes agissent sur l'action didactique conjointe en EP, ainsi que les deux sous-hypothèses : H2 a) les professeurs en EP prennent en compte les pratiques langagières des élèves alloglottes dans leurs choix et leurs actions didactiques. H2 b) les choix et les actions didactiques des professeurs en EP sont en relation avec les dispositions langagières des élèves alloglottes. Nous avons constitué notre corpus des séances de classe en EP et Hors EP selon plusieurs étapes. La réduction des données vidéographiques s'est effectuée en deux temps, nous la schématisons ainsi : 225 36 séances français/maths CP
/CM2 18 séances français/maths CP 9 séances français CP 6 séances français CP 3 séquences lecture CP
Figure 14 : Réduction verticale et horizontale des données vidéographiques
D'après la figure, nous pouvons dire que le corpus s'est constitué en fonction d'une réduction verticale puis horizontale des données vidéographiques. Dans un premier temps, après un toilettage des séances, nous avons visionné les 36 vidéos les unes à la suite des autres pour déterminer celles qui étaient comparables220. Rappelons que nous n'avons pas demandé aux professeurs d'aborder une notion en particulier pour laisser libre cours à une « sémantique naturelle de l'action » (Sensevy, 2001, p. 203). Nous devions donc par la suite opérer des choix en fonction de ce était potentiellement comparable. Dans une inspiration ethnométhodologique, en nous laissant pénétrer par les impressions, nous avons effectué plusieurs lectures répétitives des séances afin de repérer des régularités/irrégularités comme traces de l'influence du plurilinguisme des alloglottes et de leurs dispositions langagières sur les choix didactiques des professeurs. Le travail de repérage ne nous a pas permis de trouver des traces et ce, malgré un visionnage répétitif et continu des séances comme si nous regardions un film. 220 Pour diriger notre regard dans une perspective comparative, nous alternions EP/HEP pour chaque niveau et chaque classe. La comparaison étant centrale dans notre travail, nous avons déterminé les séances à retenir sous ce critère. 226 Nous avons donc recherché des traces dans d'autres données, notamment les résultats des questionnaires des professeurs qui étudiaient leurs représentations vis-à-vis du plurilinguisme des alloglottes. Si, de manière générale, les déclarations des professeurs en EP et Hors EP au sujet des alloglottes, allophones et monolingues n'étaient pas trop différentes, il existait en revanche un écart important entre les professeurs du CM2 en EP et ceux du CP : les premiers ne voyaient pas de différence entre les monolingues et les alloglottes, tandis que les seconds oui. Nous nous sommes donc centrée sur les séances d'enseignement du CP et en français, car les professeurs ont cité des domaines de difficultés identiques aux alloglottes et aux allophones. Si le repère des régularités/irrégularités n'a pas été immédiatement disponible et a été fourni par l'analyse des premières données, il n'empêche qu'à partir de cette réduction des données, la lecture répétitive s'est avérée féconde pour l'analyse. En effet, dans des séances identiques, il a été plus aisé de repérer des jeux de dissemblances et de différences parfois infinitésimales : nous avons relevé des traces d'explication lexicale abondantes dans 3 séances de lecture en EP (chez Anne, Charlotte et Sandra) et, à l'inverse, aucune trace dans 3 séances de lecture Hors EP (chez Capucine, Laure et Yves). Par ailleurs, les professeurs ne prévoyaient pas de travailler le vocabulaire mais avaient des objectifs de lecture. Il y a donc eu un écart entre le prévu et le réalisé de la séance qui pouvait faire penser que les professeurs ont dû s'adapter lors de ces séances, et ont pu être influencés par leurs représentations. Pour ces raisons, nous avons choisi de nous centrer sur les séances de lecture CP en EP. Nous ne connaissions pas, en revanche, les motifs de cette adaptation. Pourquoi les professeurs agissent-ils ainsi? Cette question nous a dirigée vers les entretiens de vidéoscopie. La base de tous les entretiens reposait sur cette question. Plus précisément, il s'agissait d'interroger les professeurs concernés sur les motifs de ces actions et pour les autres de savoir s'ils agissent ou pourraient agir ainsi par ailleurs.221 Le premier entretien de vidéoscopie mené avec l'un des 3 professeurs, Charlotte en EP, visait donc à engager un processus de « co-interprétation » des motivations de ces actions didactiques spécifiques. Les raisons données par Charlotte nous laissent penser que les traces repérées peuvent être de véritables indices pouvant confirmer nos intuitions, nos impressions de départ. Pour cette raison, nous avons poursuivi les entretiens afin de repérer des régularités dans les discours des autres professeurs. Ce premier échange a fait l'objet d'une première interprétation 221 Il faut rappeler que nous avons partagé une demi-journée de classe avec les professeurs. Le fait que certains d'entre eux n'aient pas agi ainsi n'était nullement significatif et nécessitait de leur part un discours sur leurs pratiques habituelles. 227 que nous avons soumise aux professeurs pour obtenir plusieurs interprétations. Nous avions décidé de mener les entretiens avec tous les professeurs puisque, d'une part, ils alimentaient d'une certaine manière nos réflexions et, d'autre part, pour des raisons plus pragmatiques, ils constituaient un matériau pour étudier les représentations sur le plurilinguisme et potentiellement nous permettre de repartir sur d'autres traces si nos premières intuitions se heurtaient à une impasse. En ce sens, la vidéo des séances filmée devient un moyen d'élicitation et de recueil d'autres types de données, l'entretien a une double fonction de validité et de fécondité des données. Les entretiens de vidéoscopie ont donc permis de passer d'une réduction verticale à une réduction horizontale par le jeu des indices repérés dans les discours des professeurs. Les commentaires des professeurs nous ont, par la suite, permis de centrer davantage nos analyses sur des épisodes signifiants dans une approche micro didactique. 6.2.3.1. Le rôle de la comparaison dans la réduction des données vidéographiques
La comparaison a également joué un rôle dans la réduction des séances à analyser, notamment dans la réduction horizontale. Le tableau suivant synthétise la première réduction horizontale que nous avons effectuée :
EP Anne Contenus travaillés Hors EP Yves 228 Charlotte Capucine Sandra Laure Lecture Géraldine Dictée Grammaire Harmonie Compréhension orale d'un texte Patricia Grammaire Tableau 12 : Première réduction horizontale des données
En premier lieu, pour le corpus en EP, nous avons choisi 3 séances de lecture, chez Anne, Charlotte et Sandra. Les séances des 2 autres professeurs en EP, Géraldine et Patricia, ont été écartées parce qu'elles ne portaient pas sur la lecture. En second lieu, pour la comparaison, il fallait trouver Hors EP des séances avec des contenus d'enseignement similaires, ou mieux, identiques. Sur les 5 professeurs en Hors EP, 3 professeurs, Capucine, Laure et Yann ont abordé la lecture. La séance d'Harmonie, portant sur des notions de grammaire, a été écartée. Nous nous retrouvions au final avec les séances de Capucine, Yann et Laure, c'est-à-dire avec 6 séances de lecture en EP et Hors EP. La seconde réduction horizontale s'est présentée de la façon suivante :
6 séances de lecture retenues 3 épisodes de lecture retenus EP Hors EP EP Hors EP Anne Capucine Anne Capucine Charlotte Yann Charlotte Sandra Laure Sandra
Table
au
13
: Seconde réduction horizontale des données vidéographiques
Des 6 séances de lecture retenues en EP et Hors EP, nous avons dû écarter les séances de Yann et de Laure. Les exigences méthodologiques liées à la comparaison ont dirigé ces choix. L'ethnographie des classes de Yann et Laure est beaucoup trop éloignée de celles d'Anne, Charlotte et Sandra. Nous l'avons précédemment indi , la comparaison des séances de classe porte sur des contenus de savoirs ; mais pour que la comparaison puisse se justifier, il faut pouvoir contrôler des variables comme le milieu linguistique et social. 229 Pour la séance de Laure (Hors EP), les caractéristiques socio-langagières et scolaires de sa classe étaient trop éloignées de celles des élèves en EP. Elle n'avait que 6 alloglottes sur 26 élèves, ce qui est peu en comparaison avec les élèves en EP. Leur milieu social se situe entre la catégorie moyenne et la catégorie favorisée (seulement 5/26 de catégorie défavorisée) face à des élèves en EP majoritairement de milieu défavorisé. Les élèves de Laure ont, selon elle, un très bon niveau scolaire. Aussi, la séance de lecture enregistrée chez Laure avait déjà fait l'objet d'un travail de définition lors d'une séance précédente. La séance de Capucine, quant à elle, a été écartée du corpus davantage pour des précautions méthodologiques liées à la comparaison. Les contenus travaillés, les variables socio-langagières des élèves, le contexte géographique de l'école222 où intervient Capucine et des écoles en EP présentent des caractéristiques similaires et autorisent la comparaison. En effet, l'ethnographie de la classe de Capucine n'est pas éloignée de celles des classes en EP (67 % d'élèves alloglottes et davantage d'élèves de milieu défavorisé). Capucine a refusé d'être filmée lors de l'observation (cf. chapitre 5, § 5.2.3). Le film présente donc ses interactions verbales avec les élèves, mais pas ses déplacements au moment de la régulation. Au moment de la dévolution, il est possible de savoir à qui Capucine s'adresse, lorsqu'elle nomme l'élève. En revanche, au moment de la régulation, Capucine s'adressait aux élèves depuis son bureau, derrière la caméra. Voyant que cela ne fonctionnait pas, elle nous a demandé d'éteindre la caméra pour pouvoir intervenir au plus près des élèves. De ce fait, lorsqu'elle régule les actions des élèves, nous n'avons que l'enregistrement audio et des notes d'observation. Nous cherchons à regarder l'influence des pratiques langagières des alloglottes sur les choix et les actions didactiques des professeurs. Analyser le matériau verbal de Capucine où nous ne savons pas exactement à qui elle s'adresse nous parait d'emblée compromis. A fortiori, comparer une analyse issue d'un au vidéographique en EP, présentant finement les transactions didactiques du professeur avec chaque élève, avec un matériau verbal Hors EP nous semble pour le coup biaisé. De plus, Capucine affirme, d'un côté, qu'il lui arrive de travailler le vocabulaire pour la lecture. Elle décrit les remédiations qu'elle effectue auprès des élèves alloglottes en dehors du temps scolaire. D'un autre côté, elle déclare qu'elle n'a pas eu à s'adapter aux difficultés spécifiques 222 Bien que hors de l'éducation prioritaire, l'école de Capucine est en ZUS comme celles d'Anne, Charlotte et Sandra. 230 des alloglottes lors de cette séance. Anne signalait cette absence de différence entre alloglotte et monolingue dans le même type d'exercice : « Nous eh ouais, c'est ça. Et sinon là, pour les mots là, y avait trottinette et y avait tapis. La comparaison a aussi joué un rôle dans la réduction des séances choisies en EP. Nous avons choisi des contenus similaires dans les séances d'Anne, Charlotte et Sandra pour pouvoir les comparer par la suite. Le corpus des séquences de classe est au final composé de 3 séquences :
Analyse dans une approche micro didactique 3 séquences de lecture en éducation prioritaire Sandra lecture orale de mots et de phrases Anne lecture orale de syllabes et de mots Charlotte lecture orale de mots et de phrases
Tableau 14 : Corpus des séquences analysées
L'analyse du corpus des épisodes se fait en deux temps : - Dans une approche micro didactique, nous analysons les choix et les actions didactiques d'Anne, de Charlotte et Sandra concernant la lecture orale de mots. - Dans une approche comparative, nous tentons de comprendre les choix et les actions didactiques de ces professeurs au regard des dispositions langagières des élèves et de leurs représentations sur le plurilinguisme.
6.2.3.2. Traitement et analyse des séances de classe
Dans la présentation du corpus, nous avons décrit la façon dont nous avons procédé à la réduction des données vidéographiques à partir d'une stratégie collaborative avec les acteurs eux-mêmes, puis à partir des nécessités méthodologiques liées à la comparaison. Nous décrivons désormais le traitement et l'analyse des séances. Nous avons d'abord synthétisé chaque séquence sous la forme d'un synopsis (Schneuwly, Dolz & Ronveaux, 2006). Puis, à partir de la transcription, nous avons analysé les séances avec l'aide de la grille d'analyse relative à la théorie de l'action conjointe en didactique (Sensevy & Mercier, 2007), ainsi que de la grille des dispositions langagières des élèves plurilingues (composée au regard de la théorie). 6.2.3.2.1 Transcription des séances
Une fois le corpus constitué, nous avons transcrit les interactions verbales des 3 séquences. Les éléments contextuels, tels que la dimension non-verbale (mimes, gestes, mouvements du corps du professeur et des élèves), ont été signalés au fil de la transcription. Le matériel et les supports utilisés par le professeur et les élèves ont eux aussi été notifiés. Le codage des transcriptions est identique à celui de entretiens. Il est consultable en annexe (cf. annexe 18, p. 29) La transcription des séances de lecture sont consultables en annexe (cf. annexe 29, 30 et 31, p.102, p. 115 et p. 124). Pour chaque professeur. Nous signalons dans cette transcription la séquence analysée. Comme nous l'avons indiqué supra (chapitre 5, § 5.2.4), il arrive parfois que l'élève ou le professeur soit hors champ, nous utilisons donc l'enregistrement audio pour compléter la transcription. Pour l'analyse, nous nous basons sur la transcription écrite dans la mesure où nous nous intéressons aux interactions langagières pour comprendre les transactions didactiques (Marlot, 2008). Cependant, les allers-retours entre le film et la transcription sont apparus nécessaires pour approfondir des interprétations. D'ailleurs, nous avons enrichi la transcription par les gestes des professeurs et des élèves. Présentons dans un premier temps le découpage des séances à partir d'un outil, le synopsis (Schneuwly, Dolz & Ronveaux, 2006). Dans un second temps, nous décrirons l'analyse de ces mêmes séances.
6.2.3.2.2 Le synopsis entre découpage et analyse des séances
Le synopsis est un outil qui a été élaboré par l'équipe genevoise du GRAFE (Groupe romand d'analyse du français enseigné) dirigé par Schneuwly et Dolz pour : « décrire et comprendre des objets enseignés en classe de français ; comprendre l'évolution de ces objets dans les séquences de cours ; faire une analyse comparative des professeurs traitant du même objet » (Lord, 2014, p. 136). Au sujet de la comparaison, Lord précise la fonction analytique du synopsis. Le synopsis se situe à mi-chemin entre le traitement et l'analyse du matériau. Dès lors que nous le concevons, nous opérons en effet une pré-analyse, donc une première interprétation de la séance. En effet, d'une part, nous prélevons les traits saillants de la séance retranscrite, selon notre point de vue. Et d'autre part, lorsque nous décrivons les transactions didactiques, nous soulignons celles qui nous semblent pertinentes pour l'analyse. Le synopsis se formalise par un tableau qui décrit le découpage des séquences d'une séance de façon hiérarchique. Il peut s'enrichir des données recueillies autour des séances (productions écrites, entretiens avec le professeur) et présente le temps, le matériel, les modalités, les contenus et les interactions relatifs aux savoirs enseignés (Schneuwly, Dolz & Ronveaux, 2006). Dans le synopsis, c'est la colonne relative aux activités qui nous intéresse. Au regard de notre problématique relative aux choix didactiques des professeurs en fonction du contexte et des élèves, nous y ajoutons plusieurs éléments : l'expérience professionnelle du professeur ; le contexte d'enseignement (EP/HEP) ; le niveau scolaire de la classe déclaré par le professeur ; et les caractéristiques langagières et sociales des élèves. Ces éléments apparaissent dans le tableau d'identification du synopsis (Schneuwly, Dolz et Ronveaux, ibid.) :
Date Durée Professeur Contexte Expérience prof. Classe séance
Niveau scolaire de la classe selon le professeur 233 élèves présents nombre d'élèves selon nombre d'élèves selon le milieu les pratiques langagières social (alloglottes, allophones défavorisé) (favorisé, moyen et monolingues
) Tableau 15 : Présentation d'un tableau d'identification du synopsis
Les éléments ajoutés participent de la contextualisation de la séance. L'ethnographie de la classe aide à comprendre les transactions didactiques entre professeur et élèves. Elle permet aussi de resituer/d'élargir les interprétations des analyses. Dans le synopsis, nous présentons uniquement l'ethnographie de la classe le jour de l'observation filmée. Les pratiques langagières et le milieu social des élèves apparaitront également dans le plan de classe. Outre la description de l'aménagement de la classe le jour du film (répartition des élèves, du professeur, de la caméra, du mobilier, etc.), nous détaillerons pour chaque élève ces informations. Nous procédons ainsi afin de faire le lien entre l'action du professeur et celle de l'élève au regard de la langue. Le milieu social apporte des éléments complémentaires à l'analyse. Nous avons ajouté au tableau synoptique une colonne relative aux
tâ
ches
effect
u
ées par les
élèves
: Déroulement Modalité de Matériel Tâche Activités travail Tableau 16 : Première ligne du synopsis
La colonne « tâches des élèves » donne la possibilité d'appréhender d'un seul coup d'oeil les choix didactiques des professeurs. L'évolution des tâches confiées aux élèves permet de repérer aisément un changement, par voie de comparaison, entre deux tâches. Il restera à vérifier si ce changement a lieu pour toute la classe et pour quels motifs il a lieu. En d'autres termes, ce changement s'inscrit-il dans la progression des savoir en jeu ou fait-il suite à une régulation pour un/des élèves?
6.2.3.2.3. Analyse du corpus
Le découpage ne se limite à la transformation synoptique des séances. Il se poursuit avec davantage d'acuité avec le cadre d'analyse choisi, la théorie de l'action didactique conjointe (Sensevy & Mercier, 2007). Tout au long de l'avancée du savoir, le professeur peut différencier ses actions didactiques en fonction de plusieurs facteurs (sollicitations, difficultés des élèves, et 234 besoins a priori). Nous observons si les choix et les actions didactiques des professeurs dépendent de la situation linguistique des élèves. Pour l'analyse des séances de classe, nous retenons deux niveaux d'analyse de l'action conjointe en didactique (Sensevy & Mercier, 2007) : ➢ le premier niveau « faire jouer le jeu », c'est-à-dire lorsque le professeur fait jouer le jeu aux élèves ; ➢ et le deuxième niveau « les déterminations du jeu » signifie les déterminants qui pèsent sur l'action didactique conjointe.
6.2.3.2.3.1. Analyse au niveau du jeu (faire jouer le jeu)
Pour le premier niveau, nous retenons les modalités de description de l'action didactique conjointe (le quadruplet de l'action du professeur), ainsi que la structuration de cette action (la mésogenèse et la topogenèse). Pour le quadruplet de l'action didactique conjointe (définir, dévoluer, réguler, institutionnaliser), nous regardons quels sont les choix et les actions didactiques du professeur. La gestion didactique du savoir se fait elle de façon indifférenciée ou différenciée? Et pour quels motifs? Nous analyserons comment le professeur engage et responsabilise les élèves dans les jeux d'apprentissage. Le professeur définit-il le milieu pour l'étude à toute la classe ou de façon différenciée (définir)? Engage-t-il les élèves vers des jeux d'apprentissage différents (dévoluer)? Poursuit-il des enjeux didactiques différents? Si oui, pour quel profil langagier? Nous examinerons les stratégies d'aide du professeur (réguler). Fait-il preuve de réticence didactique, auquel cas il ne dit rien du savoir à l'élève? Ou, au contraire, livre-t-il explicitement le texte du savoir à l'élève? Nous regarderons sous quelles modalités le professeur fixe le savoir (institutionnaliser). Le fixe-t-il pour toute la classe ou s'adresse-t-il à des élèves en particulier? Les connaissances sont-elles identiques ou varient-elles en fonction des caractéristiques langagières des élèves? La partie qui nous intéresse davantage est la régulation, dans la mesure où, d'une part, c'est à ce moment que les actions didactiques du professeur peuvent apparaitre explicitement de manière individualisée. Ainsi, en fonction des profils langagiers des élèves, nous pouvons comparer les actions didactiques du professeur. Et d'autre part, nous avons la possibilité de mettre en relation les actions du professeur avec celles des élèves. Nous pouvons aussi tenter 235 de comprendre les motifs pour lesquels le professeur accomplit telle action. Le professeur a-til été sollicité par l'élève? Ce dernier témoigne-t-il d'une difficulté particulière? Etc. Avec la topogenèse, nous identifierons les positions du professeur et celles de l'élève quant au partage des responsabilités dans la transaction didactique. Quelles responsabilités le professeur attribue-t-il aux élèves et quelles positions adopte-t-il? Attribue-t-il des responsabilités différentes en fonction des profils langagiers des élèves? Se positionne-t-il de la même façon avec tous les élèves? Occupe-t-il une place importante dans la transaction didactique (posture d'analyse, Marlot, 2012)? Ou, à l'inverse, fait-il preuve de réticence didactique (posture d'accompagnement, ibid.)? Pour la mésogenèse, nous regarderons l'évolution de l'aménagement du milieu par le professeur. Quels objets langagiers (discours du professeur) et matériels (support) introduit-il? Existe-t-il une variation de ces objets en fonction des élèves? Le professeur réduit-il ou agrandit-il le milieu pour l'élève? Le tableau suivant constitue la grille d'analyse des séances du corpus à partir de la théorie de l'action conjointe en didactique. Nous y détaillons les observables relatifs à la
mésogenèse : Structuration Action didactique Définir Dévoluer Réguler Institutionnaliser Mésogenèse Topogenèse Consignes : Objectifs de la tâche Moyens conceptuels et matériels de la réalisation de la tâche Démonstration, répétition Questions Questions consécutives aux consignes reformulation Erreurs Sollicitations Connaissances à retenir Tableau 17 : Grille d'analyse à partir de la TACD
À chaque moment de l'action conjointe, nous analyserons les objets langagiers et matériels qu'introduit le professeur dans le milieu : – lorsqu'il définit le jeu, nous regardons la consigne qu'il énonce, les objectifs fixés, ainsi que les moyens conceptuels et matériels auxquels il fait appel pour faire effectuer la tâche aux élèves. La démonstration, la répé tition et les questions relatives aux consignes seront aussi analysées. Nous pourrons identifier les rôles attribués aux élèves si le professeur demande de faire la démonstration de la consigne, de la répéter, etc. 236 – Lorsqu'il dévolue le jeu, nous regardons s'il pose de nouveau des questions relatives à la tâche, s'il reformule ou réexplique certaines modalités à certains élèves. – Lorsqu'il régule le jeu, nous analysons quel traitement anticipé ou a posteriori des erreurs fait le professeur. À quels objets fait-il appel pour aider un élève ou anticiper une difficulté. Comment répond-il aux sollicitations des élèves? Les dirige-t-il vers des objets de manière explicite ou implicite, laissant dans ce dernier cas les élèves chercher. – Lorsqu'il institutionnalise le jeu, nous analysons les connaissances auxquelles le professeur fait appel. - S'il s'exprime, fait-il un usage communicatif du langage?224 en ne s'exprimant qu'à travers des gestes ou en s'appuyant sur des gestes. Ou bien encore, en utilisant des déictiques s'appuyant sur des objets matériels du milieu pour s'exprimer. Là aussi, nous observerons dans quelle circonstance apparait le geste. Dans l'exemple où le professeur 223 Bien entendu, nous n'allons pas faire le lien trop rapide entre absence de réponse et mutisme. D'autant plus que nous nous basons sur une séance de classe. Nous considérons le mutisme comme une potentielle lecture des difficultés langagières des élèves plurilingues. Il serait la manifestation d'une anxiété langagière ou d'une insécurité linguistique, d'une part. Et d'autre part, nous nous appuyons sur les déclarations des professeurs issues de l'entretien de vidéoscopie pour envisager cette dimension chez l'élève. 224 La focalisation sur les difficultés langagières des élèves alloglottes n'exclut pas chez eux un langage élaboré qui se manifeste à travers l'expression d'une pensée verbale. 238 demande explicitement à un élève de montrer la droite sur le cahier, le geste de l'élève est une réponse adéquate. Signalons que nous envisageons, à l'inverse des catégories silences et usage cognitif du langage, l'éventualité que l'élève s'empare de la parole et qu'il fasse un usage cognitif du langage. - Quelles erreurs produit-il : s'agit-il d'erreurs liées à la langue (lexique, phonologie et syntaxe) ou à la culture que véhiculent les langues en contact (en lien avec le temps et les couleurs). La perspective relationnelle issue des travaux sociologiques (Bautier & Goigoux, 2004) nous conduit aussi à regarder quelles sont les stratégies du professeur pour conduire l'élève vers un rapport au langage cognitif requis pour les apprentissages. Nous nous centrerons sur les dispositions langagières des alloglottes apparaissant au moment de la régulation comme aux autres moments de l'avancée du savoir. Au regard de nos objectifs de recherche, cela nous permet à la fois : ✓ de documenter les dispositions langagières des élèves alloglottes dans l'apprentissage du français ; ✓ de comprendre les choix et les actions didactiques des professeurs, ainsi que les potentielles contraintes qui pèsent sur ces choix et ces actions. La grille d'analyse des séances se complète ainsi :
Structuration Action didactique Définir Dévoluer Mésogenèse Topogenèse Du point de vue du professeur Du point de vue de l'élève dispositions langagières Consignes : Objectifs de la tâche Silences (anxiété langagière Moyens conceptuels et matériels de ou insécurité linguistique) la réalisation de la tâche démonstration, répétition Usage communicatif du langage questions (gestes ; gestes + parole ; emploi abondant de déictiques) Questions consécutives aux Interférences linguistiques consignes reformulation 239 Réguler Institutionnaliser Sollicitations Connaissances à retenir Au niveau du lexique (erreur sémantique : sens proche, contraire ou catégoriel) Au niveau du système phonologique (erreur liée à la consonance des mots) au niveau de la syntaxe Interférences culturelles Tableau 19 : Grille d'analyse de l'action didactique conjointe
La formalisation de la grille de doit pas laisser penser que nous envisageons une analyse linéaire des transactions didactiques (de la définition vers l'institutionnalisation) entre professeur et élèves (du professeur vers l'élève Le cours de l'action didactique n'est pas unique et renferme d'autres actions en cours. Pour l'analyse des séances cette assertion permet de considérer les transactions didactiques entre professeurs et élèves de façon plus large. La figure suivante schématise les potentielles transactions didactiques
lors
d'une
séance de classe : professeur à la classe Élèves entre eux le professeur à un/des élève(s) Figure 15 : Les transactions didactiques en classe
L'action en cours principal renferme une multiplicité d'actions en cours. Le schéma montre les cours d'actions parallèles potentiels dans l'action didactique (Guernier & Sautot, 2010). L'action didactique ne se limite pas au cours d'action principal impulsé par le professeur. Le professeur peut s'adresser à la classe, à un élève ou à un groupe d'élèves et inversement. 6.2.3.2.3.2 Analyse au niveau des déterminations du jeu
La compréhension des déterminants qui pèsent sur l'action didactique en classe se fait à partir de l'épistémologie pratique du professeur (Sensevy & Mercier, 2007) Pour notre recherche, l'épistémologie pratique du professeur (ibid.) est composée : des représentations du professeur sur le plurilinguisme en lien avec le français ; des justifications des choix et des actions didactiques du professeur vers les élèves, et des explications des actions didactiques des élèves. L'épistémologie pratique (ibid.) nous sert à contextualiser les actions didactiques et à interpréter avec le professeur ces mêmes actions. Pour ce qui est des représentations sur le plurilinguisme, nous avons fait une première analyse de l'épistémologie pratique du professeur. Concernant les justifications des choix et des actions didactiques du professeur et des élèves, nous les utilisons pour analyser les transactions didactiques produites en classe. 241 L'ensemble des éléments constituant l'analyse des séances de classe étant désormais décrits, voici la grille d'analyse intégrale effectuée pour chaque séance :
Faire jouer le jeu Action didactique Structuration de l'action didactique Mésogenèse Topogenèse Déterminations du jeu Épistémologie pratique du professeur Pratique Représentations Définir Extraits transcription séance Extraits transcription séance Extraits de l'entretien de vidéoscopie dévoluer Réguler Institutionnaliser Éléments d'analyse de l'entretien de vidéoscopie Tableau 20 : Grille d'analyse des séances de classe
Dans un premier temps, nous prélevons dans la transcription de la séance, les transactions didactiques relatives au niveau du jeu en classe. À chaque moment (définir), au regard de la mésogenèse et de la topogenèse du point de vue du professeur et de l'élève. Dans un second temps, pour comprendre l'action didactique conjointe, nous extrayons de l'entretien de vidéoscopie les éléments explicatifs dans le discours du professeur. Nous nous appuyons alors sur d'autres données recueillies, notamment nos notes d'observation, les productions écrites des élèves, les résultats des questionnaires des professeurs et des élèves. Nous interprétons ces éléments au regard des représentations analysées chez le professeur. Dans cette partie, nous nous sommes attardée sur les différentes étapes du processus de la recherche. Notre inscription dans une démarche naturaliste amène l'observation et l'analyse des actions. L'orientation ethnographique engage l'immersion dans les situations observées. L'approche comparative implique des principes méthodologiques qui régissent, au final, l'ensemble de la recherche : de la définition du terrain à l'interprétation des données du corpus. Ces fondements épistémologiques guident le dispositif de recherche qui s'adapte aussi à la réalité du terrain. Ainsi, les pratiques langagières des élèves vouées à être étudiées dans leur milieu naturel, c'est-à-dire en famille, ou questionnées à partir d'entretiens se heurtent à des contraintes de terrain et à des contraintes liées à la recherche (temps, objectifs). Les représentations des professeurs s'articulent, quant à elles, autour des déclarations (questionnaires), du discours (entretiens) et des actions didactiques (séances de classe) des professeurs. Le corpus est constitué suivant un paradigme indiciaire qui récupère des traces et des indices à explorer. Ainsi, le corpus de séance de classe s'est constitué à partir des traces des questionnaires des professeurs et des indices donnés par les professeurs lors des entretiens de vidéoscopie. La réduction des données vidéographiques s'est faite selon les principes méthodologiques de la comparaison en éducation (Chnane-Davin & Groux, 2009). Les questionnaires des élèves et des professeurs ont été analysés à partir de différents niveaux de comparaison (contexte, niveau, catégorie linguistique). Les entretiens de vidéoscopie ont été examinés à partir d'une analyse thématique et du discours du professeur. Les séances de classe ont été analysées à partir de l'action conjointe en didactique (Sensevy & Mercier, 2007) qui associe l'épistémologie pratique du professeur (ibid.) et les dispositions langagières dans l'apprentissage d'une langue seconde.
IV RÉSULTATS ET DISCUSSION
Cette quatrième partie est consacrée aux résultats du corpus de la recherche. Dans un premier temps, nous présentons, à travers des statistiques descriptives, les résultats des questionnaires des élèves relatifs à leurs pratiques langagières. 7.1. Les élèves nés en France et à l'étranger
Dans un premier temps, nous décrivons les caractéristiques de notre population à partir du lieu de naissance. Puis nous comparons – en fonction du contexte et du niveau – les élèves plurilingues et monolingues, pour nous centrer ensuite sur les plurilingues et étudier les caractéristiques linguistiques des contextes EP et Hors EP. Nous comparons les élèves alloglottes nés en France avec les allophones après avoir débuté par une description de la population totale. Le corpus relatif aux pratiques langagières des élèves se présente de la manière suivante :
QUESTIONNAIRES EP HORS EP TOTAL/NIVEAU CP 94 84 178 25 % 22 % 47 % 60 139 199 16 % 37 % 53 % 154 223 377 41 % 59 % 100 % CM2 TOTAL/CONTEXTE Tableau 21 : Corpus des questionnaires sur les pratiques langagières des élèves
Sur les 377 questionnaires, 154 (soit 41 %) sont de l'EP et 223 (soit 59 %) sont hors de l'EP. Dans les niveaux, ils se répartissent comme suit : Au CP, sur les 178 questionnaires, 94 (soit 25 %) sont de l'EP et 84 (soit 22 %) proviennent hors de l'EP. Pour le CM2, sur les 199 questionnaires, 60 (soit 16 %) sont de l'EP et 139 (53 %) proviennent hors de l'EP. Nous notons que les écarts entre l'EP et Hors EP ne sont pas importants, excepté au niveau du CM2 où les questionnaires Hors EP sont 2 fois plus nombreux qu'en EP. De 245 même, les élèves Hors EP sont beaucoup plus nombreux au CM2 qu'au CP. Nous tiendrons compte de cette différence dans nos résultats. Quel est le lieu de naissance des élèves? Cette interrogation permet de questionner notre population et de catégoriser par la suite les alloglottes nés en France et les allophones nés à l'étranger. Le graphique suivant indique le nombre d'élèves nés en France et à l'étranger :
Les élèves nés en France et à l'étranger 7% en France à l'étranger 93%
Figure 16 : Répartition des élèves nés en France et à l'étranger
Sur les 377 élèves de la population totale, la majorité des répondants (351, soit 93 %) sont nés en France et 26 élèves (soit 7 %) sont nés à l'étranger. Observons quels sont les pays d'origine des élèves nés
à l'étranger : Figure 17 : Répartition des élèves nés à l'étranger en fonction du pays de naissance
246
Les pays de naissance des élèves nés à l'étranger sont principalement l'Algérie (13 élèves), les Comores (3), la Roumanie (3), Madagascar (2), la Turquie (2), la Belgique (1), l'Espagne (1) et l'Irlande (1). Il faut préciser que les élèves ayant déclaré être nés en Espagne et en Irlande affirment parler respectivement le kabyle et l'anglais ou l'arabe et l'espagnol. Ceci nous laisse penser que le pays d'origine de leurs parents est l'Algérie. Le paysage des pays d'origine des élèves ou de leurs parents (Algérie, Comores et Roumanie) correspond à l'histoire migratoire de Marseille où se situe notre recherche. Les Algériens y représentent le tiers de la population immigrée (Audren & Baby Collin, 2017). Regardons à présent l'incidence du lieu de naissance sur la répartition des élèves entre éducation prioritaire et hors éducation prioritaire : élèves (fréquence EP
HORS EP 133 218 (86 %) (98 %) 21 5 (14 %) (2 %) 154 223 (100 %) (100 %) en %) lieu de naissance France étranger Total
Tableau 22 : Comparaison de la répartition des élèves nés en France et à l'étranger en EP/HEP
En EP, les élèves nés en France de notre population sont plus nombreux (86 %) que les élèves nés à l'étranger (14 %). Hors EP, les élèves nés en France (98 %) sont plus nombreux que les élèves nés à l'étranger (2 %). Quel que soit le contexte (EP/HEP), les élèves nés en France sont plus nombreux que les élèves nés à l'étrange . Si nous comparons la répartition des élèves en fonction de la naissance dans les deux contextes, nous obtenons les résultats suivants : 247
Les élèves nés en France et à l'étranger selon le contexte 81% 90% 62% 70% 50% 38% 19% 30% 10% -10% France étranger EP HEP
Figure 18 : Comparaison de la répartition des élèves nés en France et à l'étranger en EP/HEP
Sur les 351 élèves nés en France, 133 (soit 38 %) sont en EP et 218 (soit 62 %) sont Hors EP. Sur les 26 élèves nés à l'étranger, 21 (soit 81 %) sont en EP et 5 (soit 19 %) sont Hors EP. Les élèves nés en France sont plus nombreux Hors EP (62 %) qu'en EP (38 %). Les élèves nés à l'étranger sont 4 fois plus nombreux en EP (81 %) qu'en Hors EP (19 %). En d'autres termes, plus de la moitié des élèves nés en France est en Hors EP et la majorité des élèves nés à l'étranger est en EP. Étudions à présent comment se précise cette répartition dans les niveaux scolaires du CP et du CM2 :
Élèves nés à l'étranger au CP et au CM2 selon le contexte 100%
80% 60% 40% 20% 0% CP CM2 EP HEP
Figure 19 : Comparaison de la répartition des élèves nés à l'étranger en EP/HEP
En EP, sur les 21 élèves nés à l'étranger, la majorité est au CP (17, soit 81 %) contre 4 au CM2 (soit 19 %). Hors EP, c'est l'inverse : la totalité des élèves nés à l'étranger, soit 5 élèves, sont 248 au CM2. Cette importante différence entre élèves nés à l'étranger d'un niveau à l'autre ne s'observe pas pour les élèves nés en France, quel que soit le contexte. Au vu de ces premiers résultats, nous pouvons d'ores et déjà dégager une caractéristique spécifique à l'EP : celle d'accueillir davantage d'élèves nés à l'étranger par rapport au contexte Hors EP. Ce résultat peut être lié au fait que les classes d'accueil sont le plus souvent situées en éducation prioritaire. Il peut aussi être mis en parallèle avec la relation entre la ségrégation spatiale et scolaire de la ville de Marseille (Audren & Baby-Collin, 2017) : les personnes migrantes habitent des quartiers prioritaires qui comportent, le plus souvent, des écoles labélisées EP. Cependant, soulignons qu'il n'y pas de relation systématique entre le fait d'être né à 'étranger et être pris en charge dans une classe d'accueil (Upe2A), et ce, pour deux raisons. Tout d'abord, les Upe2A se situent en EP. L'affectation d'un élève dépendant de son lieu de résidence, il arrive qu'un allophone nouvellement arrivé soit scolarisé dans une école n'ayant pas d'Upe2A. La seconde raison est que les élèves nés à l'étranger peuvent être arrivés en France avant la maternelle. Nous le voyons dans le cas des élèves nés à l'étranger de notre population. Nous observons que les élèves nés à l'étranger sont majoritairement scolarisés au CP et ceux en Hors EP sont tous scolarisés au CM2. Au CP, les élèves nés à l'étranger sont en France depuis un an, voire deux. 7.2. Les plurilingues et les monolingues
Nous nous attachons à présent aux élèves monolingues et plurilingues (alloglottes nés en France et allophones) dans une perspective d'analyse comparée entre l'EP et Hors EP. Nous envisageons d'interroger une spécificité du plurilinguisme et des pratiques langagières des alloglottes nés en France en EP susceptible d'influencer les pratiques d'enseignementapprentissage. Sur les 377 questionnaires du corpus, 208 élèves (55 %) déclarent être monolingues (désormais monolingues) et 169 élèves (45 %) déclarent être plurilingues (désormais plurilingues)225. 225 Afin d'alléger notre propos, nous parlerons désormais de plurilingues et de monolingues. Il s'agit bien d'élèves qui se sont déclarés plurilingues et monolingues.
Les plurilingues et les monolingues plurilingues 45% 55% monolingues
Figure 20 : Répartition générale des élèves plurilingues et monolingues
Si le nombre de monolingues est supérieur à celui des plurilingues, on remarquera que la différence n'est pas très importante (écart de 10 %) seulement). En observant la déclaration (plurilingue/monolingue) en fonction du lieu de naissance des élèves, nous obtenons les résultats suivants : Les plurilingues et les monolingues selon le lieu de naissance 250
200 150 100 50 0 France étranger Plurilingues Monolingues
Figure 21 : Comparaison de la répartition des plurilingues et des monolingues nés en France et à l'étranger
Sur les 351 élèves nés en France, 147 (soit 42 %) sont plurilingues et 204 (soit 58 %) sont monolingues. Les élèves nés en France se déclarent donc davantage monolingues que plurilingues. Si l'on extrait les élèves nés à l'étranger, nous nous apercevons, par rapport au résultat précédent, que l'écart entre plurilingues et monolingues est davantage réduit (42 % contre 58 % vs 45 % contre 55 % pour la population totale). 250 Sur les 26 nés à l'étranger, 22 (soit 85 %) sont plurilingues et 4 (soit 15 %) sont monolingues. La majorité des élèves nés à l'étranger est plurilingue ; nous notons cependant un résultat intéressant concernant les 4 monolingues nés à l'étranger. En effet, nous pourrions nous attendre à ce que les 4 soient scolarisés au CM2. Or seul un élève est au CM2, après avoir été scolarisé en France de le CP. Ce résultat semble indiquer qu'après plusieurs années la langue peut être maintenue. Les 3 autres sont au CP (EP). Pour l'un d'entre eux, les parents se sont expatriés à l'étranger puis sont revenus en France. Pour les 2 autres, deux interprétations sont possibles : leurs déclarations ne reflètent pas la réalité ou ils ne pratiquent effectivement plus la langue d'origine avec la famille. Lorsque nous prenons en compte les catégories (monolingue/plurilingue), nous pouvons dire que les plurilingues et les monolingues sont majoritairement nés en France : • plurilingues : 147 (soit 87 %) contre 22 (soit 13 %) ; • monolingues : 204 (soit 98 %) contre 4 (soit 2 %). La population totale davantage monolingue que plurilingue est aussi majoritairement née en France. Interrogeons maintenant ces résultats au regard du contexte (EP/HEP) pour vérifier si cette tendance se confirme. Analysons chaque catégorie plurilingue et monolingue en fonction du contexte EP puis Hors EP. Les plurilingues et les monolingues selon le contexte 90%
70% 50% 30% 10% -10% Plurilingues Monolingues EP HEP
Figure 22 : Comparaison de la répartition des plurilingues et des monolingues en EP/HEP
Sur les 169 plurilingues, 116 élèves (soit 69 %) sont en EP ; 53 élèves (soit 31 %) sont Hors EP. Ce résultat correspond à celui de Miguel-
Addisu et
Maire Sand
oz (2015).
Sur
les 208 élèves 251 monolingue
s
, 53 (soit 18 %)
sont
en EP ; 170 (soit 82 %)
sont Hors EP.
Nous observons que la catégorie plurilingue est 2 fois plus nombreuse
en
EP qu
'en
Hors
EP
. Le graphique montre une tendance opposée pour la catégorie monolingue. Ils sont 4 fois plus nombreux Hors EP qu'en EP. Ces résultats révèlent que si la population totale est davantage monolingue que plurilingue, cela ne se confirme pas pour les deux contextes : les
plurilingues
sont
2
fois plus nombreux en EP qu'en Hors EP
.
Les monolingues Hors EP sont 4 fois plus nombreux qu'en EP.
Regardons à présent à l'intérieur de chaque
context
e, en EP puis en Hors EP, comment les catégories plurilingue et monolingue se répartissent
:
Les plurilingues
et les
monolingues à
l'
intérieur des context
es 80%
60% 40% 20% 0% EP HEP Plurilingues Monolingues
Figure 23 : Comparaison de la répartition des élèves plurilingues et monolingues en EP et en HEP
Sur les 154 élèves en EP, 116 (soit 69 %) sont plurilingues, 38 (soit 18 %) seulement sont monolingues. Au sein de l'EP, les plurilingues sont 3 fois plus nombreux que les monolingues. Sur les 223 élèves Hors EP, 53 élèves (soit 24 %) sont plurilingues, 170 élèves (soit 76 %) sont monolingues. Au sein du contexte Hors EP, les plurilingues sont 4 fois moins nombre
que les monolingues. 7.2.1. Comparaison des élèves plurilingues et monolingues en EP et Hors EP :
La comparaison intercontextes (EP vs HEP) ou intracontexte montre qu'en EP, les plurilingues sont plus nombreux par rapport aux monolingues. Les plurilingues de l'EP sont aussi plus nombreux que les plurilingues en Hors EP. À l'inverse, Hors EP, les plurilingues sont moins nombreux par rapport aux monolingues. Les plurilingues Hors EP sont aussi moins nombreux par rapport aux plurilingues en EP. 11.2.2 Synthèse de la comparaison entre plurilingues et monolingues en EP et Hors EP
Les monolingues sont davantage nombreux par rapport aux plurilingues, mais ce résultat ne se vérifie qu'en Hors EP. En EP, quelle que soit la comparaison effectuée, à l'intérieur du contexte ou entre les contextes (EP vs HEP), nous observons que les plurilingues sont toujours plus nombreux. À l'intérieur du contexte, ils sont plus nombreux que les monolingues. Par rapport au contexte Hors EP, ils sont aussi plus nombreux. À l'inverse, les plurilingues Hors de l'EP sont toujours moins nombreux à l'intérieur du contexte ou par rapport aux autres plurilingues en EP. De plus, cette tendance se vérifie surtout 254 chez les plurilingues du CP en EP : ils sont toujours plus nombreux que les plurilingues et les monolingues quels que soient le niveau et le contexte. Au regard de ces résultats, nous pouvons dire que : ✓ la majorité des plurilingues de notre population se trouve en EP ; ✓ la majorité des monolingues de notre population se trouvent Hors EP. La tendance de départ, à savoir des monolingues davantage nombreux par rapport à des plurilingues, se trouve ici confirmée avec beaucoup d'acuité pour les écoles situées Hors EP. En revanche, c'est la tendance inverse que nous retrouvons en EP. Il semble se dégager pour l'EP une autre caractéristique : celle d'avoir davantage de plurilingues que de monolingues, surtout au CP. Pour le contexte Hors EP, une caractéristique semble aussi émerger : celle d'avoir une minorité de plurilingues. Les résultats convergent vers les recherches actuelles qui mettent en lumière le nombre important de plurilingues en EP (Bertucci, 2015 ; Nante & Trimaille, 2015 ; Miguel Addisu & Maire-Sandoz, 2015). La comparaison nous permet de parler surreprésentation des élèves plurilingues en EP par rapport au contexte Hors EP. Nous analyserons plus loin comment se traduit cette surreprésentation.
| 48,121
|
a8b5e1afabfefc027469b267f6bb396b_1
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,011
|
Méthodologie : l'entretien ethnographique au service de l'étude des civilisations pour une analyse comparée des cultures française et slovaque
|
None
|
French
|
Spoken
| 3,962
| 6,854
|
MÉTHODOLOGIE : L’ENTRETIEN ETHNOGRAPHIQUE
AU SERVICE DE L’ÉTUDE DES CIVILISATIONS
POUR UNE ANALYSE COMPARÉE DES CULTURES
FRANÇAISE ET SLOVAQUE
François Schmitt
Abstract: Ethnography can be useful to get a deeper knowledge of foreign civilizations. Ethnography
enables the research worker to outgrow cultural stereotypes through the study of cultural representations. This is what is intended through a project of survey research: to ask questions to French and Slovak
people about their views on the French culture and the Slovak culture. During this survey, the method
of the non-directive interview will be used. The contribution is an introduction to the project and aims to
present the methodology of the non-directive interview.
Keywords: culture; civilization; interview; ethnography; ethnology.
Résumé : Pour appronfondir les connaissances sur les civilisations étrangères, avoir recours
à l’ethnographie permet de dépasser certains stéréotypes grâce à un travail sur les représentations du
public étranger sur la culture cible. L’article est une introduction à un projet d’enquête sur la représentation des cultures française et slovaque par les Français et les Slovaques. Il traite de la méthode de
l’entretien non directif, méthode bien adaptée à la future enquête. L’article présente les fondements conceptuels de la méthode de l’entretien non directif et la démarche de l’enquêteur au cours de l’entretien
et après l’entretien.
Mots clés : culture ; civilisation ; entretien ; ethnographie ; ethnologie.
Introduction
Dans l’étude et l’enseignement des langues étrangères, la culture et la civilisation sont
souvent abordées presqu’exclusivement à partir des sources écrites (articles de presse,
extraits littéraires, études sociologiques ou historiques, manuels de civilisation, etc.) et
audiovisuelles (extraits d’émissions de radio ou de télévision). Ces sources sont d’un
apport précieux pour connaître une civilisation étrangère et permettent souvent de faire
un tableau très complet de la culture cible. Si l’on s’en tient à ces sources, on risque pourtant d’avoir une vision stéréotypée voire fausse de la culture étudiée car on est tenté de
faire des traits culturels immédiatemment visibles les caractéristiques majeures de la
civilisation étudiée. Pour corriger cet effet déformant, il serait intéressant de soumettre
le contenu des sources écrites et audiovisuelles au regard et aux représentations que
l’étranger porte sur la culture cible.
Romanica Olomucensia 23.1 (2011): 83–90
François Schmitt
Dans cette perspective, l’ethnologie dispose d’outils et de méthodes pouvant rendre
compte de la vision de l’autre portée sur une culture différente de la sienne. La méthode
que nous jugeons particulièrement bien adaptée à ce type d’étude est l’entretien ethnographique et en particulier l’entretien non directif dont nous allons présenter dans cet
article les démarches et les enjeux.
Notre projet de recherche est de réaliser une enquête sur la représentation des cultures
française et slovaque par les Français et les Slovaques. Cet article constitue une introduction méthodologique à notre future enquête dont nous présenterons en conclusion les
caractéristiques (terrain et échantillon). Son objectif est de montrer en quoi la méthode de
l’entretien non directif est bien adaptée au thème de notre future enquête.
1. Les origines de l’enquête ethnographique en ethnologie
L’entretien non directif s’impose en sociologie comme méthode d’investigation à partir
des années 1970 en opposition aux méthodes quantitatives classiques de recueil de données. Dans un même mouvement, on commence alors aussi à reconnaître chez les anthropologues et dans les années 1980 chez les sociologues, la subjectivité du chercheur.
Paraissent depuis un certain nombre d’ouvrages théoriques mettant en avant la méthode
non directive en l’opposant aux lacunes des méthodes dominantes quantitatives. Cette
méthode reçoit diverses dénominations selon les auteurs : « entretien non directif » (Guy
Michelat), « entretien ethnographique » (Stéphane Beaud), « entretien semi-directif »
(Jean-Baptiste Legavre), « entretien compréhensif » (Jean-Claude Kaufmann), « entretien
informel » (Patrick Bruneteau) (Memmi, 1999 : 134).
La principale critique soulevée à l’encontre de cette méthode est sa trop grande part
de subjectivité et la trop grande influence de l’enquêteur sur les réponses données par
l’informateur. Les défenseurs de l’entretien non directif prennent le contre-pied de cette
critique en mettant en avant la subjectivité même de la méthode qui, lorsqu’elle est prise
en compte dans le travail de l’enquêteur, peut servir de fondement même à la méthode.
2. Les fondements conceptuels de l’entretien non directif
La méthode de l’entretien non directif nous semble bien adaptée à l’étude d’une civilisation étrangère et particulièrement à l’analyse comparée des cultures française et slovaque, non seulement parce qu’elle laisse une marge de manœuvre importante au chercheur, mais surtout parce qu’elle considère l’informateur comme la source essentielle de
l’enquête. En étant centrée sur l’informateur, cette méthode de l’entretien non directif
laisse donc une place importante aux représentations, aspect fondamental de notre enquête.
2.1 « Un artisanat intellectuel »
La standardisation du métier de sociologue, conséquence de l’avènement de la société de
l’informatique, a tendance à se répercuter sur la pratique de l’entretien qui est mené de
façon de plus en plus impersonnelle dans un souci d’objectivité. Jean-Claude Kaufmann
s’oppose à cette évolution et veut, au contraire, faire de l’entretien non directif, qu’il appelle « entretien compréhensif », une méthode personnalisée (Kaufmann, 2007 : 13–14).
Il revendique un « artisanat intellectuel », selon l’ expression de W. Mills (1967), dans le
métier de sociologue : le sociologue doit construire son œuvre et ne pas se laisser sou84
Méthodologie : l’entretien ethnographique au service de l’étude des civilisations...
mettre par une méthodologie formaliste (Kaufmann, 2007 : 16). L’entretien non directif
n’est donc pas une méthode formaliste mais laisse à l’enquêteur une certaine marge de
manœuvre.
2.2 L’effacement de l’enquêteur est illusoire
La tendance est aujourd’hui à l’effacement de l’enquêteur pour ne pas influencer
l’interviewé si bien que l’on s’achemine vers un entretien impersonnel standardisé :
chaque entretien est conduit de la même manière. Il est finalement sans relief et son
interprétation est alors réduite au minimum. La méthode de l’entretien standardisé
travaille, en effet, sur les opinions de surface, immédiatement disponibles, elle n’atteint
que les opinions flottantes sous des formes linguistiques appropriées alors qu’un entretien
personnalisé est riche et complexe car il dissimule l’essentiel : les ratés de parole, les
digressions, les dénégations, etc. Au contraire de l’entretien impersonnel, l’entretien non
directif exige de l’enquêteur un engagement dans l’enquête, non seulement au moment
de l’interprétation des données mais aussi pendant le déroulement de l’entretien
(Kaufmann, 2007 : 19–20).
La nécessité de l’engagement de l’ethnographe dans son enquête devrait pousser l’enquêteur à réduire la distance le séparant du terrain. Cela ne signifie pourtant pas que la
distanciation soit absente de l’enquête ethnographique : elle reste garante de l’objectivité
de l’enquête. Mais elle n’intervient pas au stade de la collecte des données, étape de l’enquête où l’ethnographe est au contraire amené à entrer de plein pied dans le terrain. Elle
se situe en amont, lorsque l’ethnographe découvre le terrain, et en aval, lors de l’analyse.
Lorsque l’enquêteur s’engage personnellement dans les entretiens, il doit accepter
qu’une part de subjectivité interfère dans ses relations avec les informateurs et tenir
compte de cela en repérant tout ce qui peut relever de la subjectivité de l’enquêteur
durant les entretiens. Pour prendre en compte la subjectivité de l’enquêteur dans son
travail, Michelat fait appel à la psychanalyse pour déceler les lapsus ou certaines formes
de projection lors des entretiens (Michelat, 1975 : 241). Dans tous les cas de figure, qu’il
y ait distance ou proximité entre l’ethnographe et l’informateur, il est donc indispensable
de tenir compte des facteurs de subjectivité pouvant interférer sur l’entretien.
2.3 L’informateur au cœur de l’enquête
Tout en étant conscient de l’influence induite par sa présence dans l’enquête, l’enquêteur
doit s’effacer le plus possible devant l’informateur qui doit jouer un rôle central dans
l’enquête. En effet, partant du principe selon lequel la personne interrogée est la plus
apte à explorer le champ du problème étudié, dans un entretien non directif l’enquêteur fait assumer à l’informateur l’exploitation du thème de la recherche alors que luimême n’a qu’un rôle de faciliteur ou de soutien. On considère donc l’informateur comme
source du savoir car, comme tout un chacun, il est porteur d’une culture : chaque individu est porteur de la culture et des sous-cultures (en fonction des groupes sociaux qu’il
fréquente, de sa personnalité, de son histoire, etc.) auxquelles il appartient.1 L’entretien
permet alors de révéler des modèles culturels intériorisés qui peuvent être appréhendés dans les productions verbales des informateurs. Si chaque individu est représentatif
1
Michelat reprend ici l’idée selon laquelle la réalité sociale est dans tout individu, thème développé par Norbert Elias, cf. Elias, Norbert (1991), La Société des individus, Paris : Fayard.
85
François Schmitt
de sa culture, les individus ne sont pourtant pas interchangeables car chacun perçoit la
culture dont il est porteur à sa manière. L’enquêteur doit tenir compte de ce paradoxe :
partir des comportements individuels pour étudier les comportements sociaux. En réalité, ce paradoxe n’est qu’apparant car on ne peut dissocier l’individuel du social. Selon
Sapir « social ne s’oppose pas vraiment à individuel. Toute psychologie de l’individu est
psychologie de la société, dans la mesure où le psychologique rend compte des conduites
sociales »2 (Michelat, 1975 : 232–234).
L’informateur ne révèle pourtant pas miraculeusement au cours de l’entretien une
réalité sociale comme un livre ouvert mais construit le matériau ethnographique. C’est
la dialectique de l’entretien qui participe à la construction de la réalité. En situation d’entretien, l’informateur est placé dans une situation exceptionnelle l’amenant à réfléchir
sur sa propre vie. Pour rendre son discours cohérent, il met de l’odre dans ce qu’il révèle
à l’enquêteur sur sa vie. Cette mise en ordre, souvent inconsciente, par l’informateur
d’une réalité incohérente peut en apprendre beaucoup à l’enquêteur sur les contradictions qu’elle révèle chez l’informateur. Maître d’œuvre dans la construction du texte
de l’entretien, l’informateur peut même glisser inconsciemment dans son discours des
mensonges ou des vérités déformées sous forme de fables, ce dont l’enquêteur devra
également tenir compte, en particulier au cours de l’analyse (Kaufmann, 2007 : 58–59).
2.4 Les hypothèses de départ
Le modèle classique de l’enquête consiste à élaborer a priori des hypothèses qui sont ensuite vérifiées sur le terrain pour être rectifiées par la suite. La méthode de l’entretien non
directif inverse le processus : c’est à partir du terrain qu’on élabore les hypothèses. Deux
attitudes sont cependant envisageables. Adopter la position extrême d’Anselm Strauss3
qui tire toutes ses hypothèses du terrain et s’immerge dans les faits sans formuler de
question de départ. Jean-Claude Kaufmann, considérant au contraire qu’on risque ainsi
de se noyer dans la richesse du terrain, préfère avoir une idée de départ en tête à la manière d’Howard Becker qui propose une hypothèse 0. Cette hypothèse 0, même si elle
peut être fausse, est un bon instrument de travail pour évoluer durant l’enquête car,
pour Kaufmann, il faut quitter l’idée selon laquelle le terrain fait émerger de lui-même
les idées (Kaufmann, 2007 : 26).
3. Mener un entretien non directif
3.1 Préparer l’entretien
3.1.1 Constituer l’échantillon
Pour l’entretien standardisé quantitatif, l’échantillon est la pièce maîtresse et répond
à des critères précis (âge, profession, situation familiale, résidence, etc.) car il est censé
être représentatif de la population étudiée (Michelat, 1975 : 236). Pour l’entretien qualitatif non directif, par contre, l’échantillon peut être constitué de manière beaucoup
plus souple. Comme nous l’avons montré plus haut, c’est l’individu qui est au cœur de
l’enquête car il est représentatif de sa culture et parce que l’entretien s’appuie sur des
histoires individuelles et non sur des statistiques chiffrées. L’échantillon peut donc être
2
3
Sapir, Eduard (1967), Anthropologie. Tome 1 : culture et personalité, Paris : Éditions de Minuit, 9.
Strauss, Anselm (1992), Grounded theory, Cambridge : University Press.
86
Méthodologie : l’entretien ethnographique au service de l’étude des civilisations...
constitué d’un nombre assez réduit de personnes : 30 à 40 nous conseille Michelat. Mais
l’échantillon ne peut pour autant être constitué n’importe comment : il faut qu’il soit
pondéré et doit éviter les grands déséquilibres (Kaufmann, 2007 : 41–42). Les critères
de sélection des informateurs – Michelat emploie à ce propos l’expression variables stratégiques – doivent être adaptés au thème de l’enquête au sens où les personnes interrogées doivent être choisies en fonction de leur représentativité (Michelat, 1975 : 236). Si
l’échantillon est important, il n’est pourtant qu’un instrument de l’enquête dans laquelle
l’analyse occupe autant de place.
3.1.2 Préparer la grille des questions
Dans l’entretien directif les questions sont imposées et l’enquêté n’a de choix qu’à y répondre. Or un questionnaire trop rigide risque de maintenir l’entretien à la surface,
c’est-à-dire ne produire chez l’enquêté que des réponses superficielles et stéréotypées
suggérées par les questions. Au contraire, laisser parler l’informateur librement – et les
questions de l’enquêteur ne sont alors que des stimuli au discours de l’informateur –
permet d’atteindre le « niveau de profondeur des informations » (Michelat) qui se situe
au niveau de la sphère socio-affective car, pour l’ethnographe, le niveau affectif révélé
dans une conversation libre est au moins aussi important que ce qui est intellectualisé
dans des réponses précises (Michelat, 1975 : 231). Il est pourtant conseillé de rédiger une
vraie grille de questions avec de vraies questions classées par thèmes. Si le questionnaire doit être préparé de manière scrupuleuse et bien mémorisé par l’enquêteur, son
utilisation au cours de l’entretien est cependant beaucoup plus souple. Les questions ne
servent qu’à déclencher la conversation sur le thème désiré. Elles doivent certes se suivre
logiquement pour ne pas déstabiliser l’informateur mais l’enquêteur peut aussi très bien
modifier la grille au cours de l’entretien (Kaufmann, 2007 : 44–45).
3.2 Le déroulement de l’entretien
La méthode de l’entretien non directif, fondée sur des relations personnelles avec les
informateurs, ne peut faire l’économie d’une réflexion sur les principes ethiques définis
comme un ensemble de « règles ayant pour objet de soumettre l’activité scientifique au
respect de valeurs jugées plus importantes que la liberté du chercheur » (Rossi). Pour
garantir ces principes, l’enquêteur doit respecter certaines règles. Le principe fondamental de l’enquête est le respect de la confidentialité vis-à-vis de l’informateur qui peut
être amené à livrer à l’enquêteur une part d’intimité (Dufoulon, 1999 : 14). L’enquêteur,
qui est en situation de demandeur, laisse aussi à l’informateur le choix des armes : c’est
à l’informateur de choisir le lieu et le moment de l’entretien et d’accepter ou non d’être
enregistré. Enfin, l’enquêteur devrait jouer cartes sur table en exposant clairement à l’informateur l’objet et les pratiques de l’enquête, quitte à les discuter avec lui (Dufoulon,
1999 : 20).
Si l’informateur y consent, il est préférable d’enregistrer l’entretien car une simple
prise de notes ne donne qu’un aperçu tronqué de la réalité dans la mesure où prendre
des notes oblige l’enquêteur, qui ne peut tout noter, à procéder à une sélection immédiate en ne s’intéressant qu’aux informations de surface et en perdant ce qui constitue
l’essentiel du message : les non-dits, les silences, les hésitations, les sous-entendus, etc.
L’enregistrement peut rendre compte des différents niveaux du discours de l’informateur : il constituera le matériau de l’analyse du contenu, étape essentielle de l’enquête.
87
François Schmitt
Ces considérations éthiques nous rappellent à quel point l’enquêteur est tiraillé entre
l’impératif prédateur de son métier qui est de tirer du terrain et de l’informateur un
maximum d’informations et la dimension humaine et relationnelle de l’entretien qui
n’est pas un interrogatoire mais tient davantage de la conversation entre égaux autour
d’un thème. Dans cette perspective, l’enquêteur doit éviter deux écueils. Le premier serait d’énumérer ou lire les questions sur un ton monocorde car cela inciterait l’informateur à adopter le même style en donnant des réponses plates et brèves et le pousserait
à se soumettre à l’enquêteur et à attendre passivement les questions. Le deuxième danger est de faire dériver la conversation vers un échange mou, une simple conversation.
L’enquêteur doit donc rester maître du jeu : atteindre le ton de la conversation sans que
l’entretien ne devienne réellement une conversation. Pour mener discrètement l’entretien, l’enquêteur doit faire preuve d’une grande capacité d’écoute de manière à pouvoir
anticiper le déroulement de l’entretien en saisissant les points importants à développer
dans le témoignage sans toutefois interrompre tout de suite l’informateur. Selon l’expression de Kaufmann, il faut mener « l’enquête dans l’enquête », c’est-à-dire trouver
la meilleure question à poser en fonction de ce que dit l’informateur davantage qu’en
fontion de la grille (Kaufmann, 2007 : 47–49).
Un des objectifs de l’entretien étant de pénétrer dans le monde intime de l’informateur, l’enquêteur doit être capable de comprendre l’informateur, de pénétrer dans son
système de penser en oubliant ses propres opinions et sa propre morale. Il doit être
à l’écoute de l’informateur même s’il peut avoir l’impression que ce qu’il dit n’est pas
intéressant. On appelle cette attitude, mêlant sympathie, compréhension (au sens moral
du terme) et altruisme, l’empathie. Pour Kaufmann, l’enquêteur doit faire preuve d’empathie (Kaufmann, 2007 : 51). Pourtant, l’empathie comme qualité de l’enquêteur ne fait
pas l’unanimité chez les ethnographes et les ethnologues. L’empathie est d’abord une
notion ambiguë : pour Dufoulon, elle est « empreinte de culpabilité ethnocentrique » et
met en question la relation d’égal à égal entre l’informateur et l’ethnographe (Dufoulon,
1999 : 22). Ensuite, la rencontre de l’ethnographe avec l’altérité est confrontation excluant
toute empathie a priori : il n’y a pas « d’acculturation du chercheur » sur le terrain qui est
plutôt un espace de traduction ou enquêteur et informateur vont rechercher un langage
commun (Dufoulon, 1999 : 12–15).
Élément déclencheur de l’entretien, l’interaction entre l’ethnographe et l’informateur implique donc une relation dynamique entre enquêteur et enquêté excluant toute
neutralité de l’enquêteur comme les tenants de la méthode classique le préconisent. La
neutralité de l’enquêteur, « fantasme positiviste », risque au contraire de mener l’entretien à l’échec. En effet, en s’effaçant, l’enquêteur empêche l’informateur, qui a besoin de
repères, de se livrer suffisamment. Au contraire, en exprimant son opinion, l’enquêteur
paraît aussi plus sincère aux yeux de l’informateur qui est alors incité à réagir (Kaufmann, 2007 : 52).
4. Après l’entretien : l’analyse des contenus
La partie essentielle de l’enquête est l’analyse des contenus, c’est-à-dire le décryptage
des entretiens à partir des enregistrements audio ou, à défaut, des prises de notes.
Analyser un entretien ne signifie pas simplement en restituer le contenu à partir des
enregistrements. C’est un travail d’investigation consistant à la mise à jour, à partir des
entretiens, de concepts et d’hypothèses. L’analyse est donc une reconstruction de la réa88
Méthodologie : l’entretien ethnographique au service de l’étude des civilisations...
lité (Kaufmann, 2007 : 72). Le matériau brut est constitué des enregistrements que certains ethnographes retranscrivent. C’est le cas de Michelat qui conseille aussi de relire
plusieurs fois les retranscriptions pour s’en imprégner (Michelat, 1975 : 241). Kaufmann,
quant à lui, pense que les retranscriptions orientent l’analyse sur l’écrit au détriment du
paraverbal (rythme, intonation, silences, etc.) et préfère donc travailler directement à partir des enregistrements. Comme support écrit, intermédiaire entre le matériau brut (les
enregistrements) et l’interprétation, Kaufmann rédige ensuite des fiches sur lesquelles
il retranscrit les phrases les plus intéressantes et certains commentaires. Ces fiches ne
constituent pourtant pas un matériau définitif : elles sont revues et sélectionnées à mesure que l’analyse progresse (Kaufmann, 2007 : 76).
L’analyse des contenus ne consiste pas simplement à lire les retranscriptions ou
à écouter les enregistrements. Il s’agit d’interpréter le matériau, c’est-à-dire tirer du corpus un enseignement en partant du principe selon lequel tous les éléments du corpus,
y compris les détails, ont leur importance (Michelat, 2007 : 237–238). Prendre en compte
dans l’analyse tous les éléments du corpus permet de mieux repérer certaines phrases
qui se répètent souvent d’un entretien à l’autre ou même au cours d’un même entretien :
il s’agit de phrases socialement répandues auxquelles l’informateur a recours dans son
argumentation de manière plus ou moins consciente et qui lui évitent d’invoquer un argument plus profond. Ces phrases passe-partout sont très intéressantes pour l’enquêteur
car elles constituent des fragments de social peu personnalisés, sorte de « pot-pourri de
notions disparates » (Kaufmann, 2007 : 95).
Les éléments dégagés lors de l’interprétation n’acquièrent de signification que s’ils
sont mis en relation entre eux. Cela renvoie à une conception de la culture inspirée du
structuralisme selon laquelle chaque élément n’existe et ne peut être étudié que dans
sa relation avec les autres éléments. C’est une analyse transversale du corpus qui permet de mettre les entretiens en relation entre eux. On procèdera alors à un couplage de
lectures (ou écoutes) verticales (d’un seul entretien à la fois) et de lectures (ou écoutes)
horizontales (de plusieurs entretiens à la fois de manière comparative). Le procédé n’est
pas seulement technique mais répond à l’idée selon laquelle les entretiens se complètent
les uns les autres car ils sont des interprétations différentes d’un même mythe. L’objectif de l’analyse transversale est ainsi de reconstituer le « raisonnement affectif » (non
conscient) de l’informateur pour savoir quels rôles y jouent les modèles culturels. D’un
point de vue méthodologique, cette lecture transversale d’un entretien à l’autre favorise
aussi le questionnement de l’enquêteur (Michelat, 1975 : 238–243).
En poursuivant l’analyse du contenu plus en profondeur, l’enquêteur découvre que
le caractère d’unité de l’informateur est trompeur. La déconstruction du récit de l’informateur pendant l’analyse révèle les contradictions et le caractère composite de l’informateur. Cette incohérence apparaît dans les contradictions contenues dans le discours
de l’informateur. D’autres contradictions sont liées à la biographie de l’informateur qui,
dans son discours, s’efforce de mettre de l’ordre dans son existence qui, elle non plus,
n’est pas toujours cohérente (Kaufmann, 2007 : 97).
5. Vers l’enquête de terrain : constituer l’échantillon
Cette propédeutique méthodologique nous permettra de constituer l’échantillon en
veillant à ce qu’il soit adapté au mieux à la méthode de l’entretien non directif et au terrain spécifique de notre future enquête.
89
François Schmitt
Nous réaliserons notre enquête en Slovaquie auprès d’un échantillon qui sera constitué de résidents français en Slovaquie et de Slovaques ayant des contacts réguliers avec
la culture française. Les deux groupes d’informateurs français et slovaques seront sociologiquement équilibrés car ils seront tous les deux constitués de diplômés de l’enseignement supérieur exerçant des emplois qualifiés (enseignants, cadres). L’homogénéité des
deux groupes ne pourra pourtant pas être assurée sur le point linguistique car la connaissance et la pratique de la langue de l’autre seront différentes d’un groupe à l’autre. Les
Français résidant en Slovaquie n’ont généralement pas appris le slovaque avant de venir
en Slovaquie et n’ont souvent qu’une connaissance imparfaite de la langue qu’ils ont
apprise sur place. Il leur est même possible de séjourner en Slovaquie avec une maîtrise
rudimentaire de la langue slovaque en ayant recours au français ou à d’autres langues
véhiculaires, en général à l’anglais. Les Français de notre futur échantillon maîtrisent
donc très inégalement le slovaque. Il est au contraire plus difficile de séjourner de manière prolongée en France sans bien parler français. Les Slovaques de notre futur échantillon maîtrisent donc généralement très bien le français. Nous pouvons ainsi d’emblée
supposer que, si pour les Français, l’expérience de la culture slovaque ne s’accompagne
pas forcément d’un apprentissage poussé de la langue slovaque, dans le cas des Slovaques, langue et culture françaises vont souvent de pair.
Bibliographie
Dufoulon, Serge (1999), « Marins et sociologues à bord du Georges Leygues,
interactions de recherche », Sociologie du travail 41, n° 1, 5–22.
Kaufmann, Jean-Claude (2007), L’enquête et ses méthodes. L’entretein compréhensif,
Paris : Armand Colin.
Memmi, Dominique – Arduin, Pascal (1999), « L’enquêteur enquêté. De la
« connaissance par corps » dans l’entretien sociologique », Genèses 35, 131–145.
Michelat, Guy (1975), « Sur l’utilisation de l’entretien non directif en sociologie »,
Revue française de sociologie 16, 229–247.
Rossi, Ilario – Kaech, François – Foley, Rose-Anne – Papadaniel, Yannis (2010) :
L’éthique à l’épreuve d’une anthropologie en milieu paliatif : de l’insertion à la
restitution, en ligne : www.ethnographiques.org, consulté le 21/11/2010.
François Schmitt
Katedra romanistiky
Fakulta humanitných vied
Univerzita Mateja Bela
Tajovského 40
974 01 Banská Bystrica
Slovaquie
[email protected]
90.
| 40,343
|
aa9a2015bcb27a2c0b396178e418a523_2
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,023
|
Barbade
|
None
|
French
|
Spoken
| 7,931
| 12,495
|
2. L’Allemagne, l’Espagne, l’Estonie, la Fédération de Russie, Hong Kong (Chine), l’Indonésie, la Roumanie, la Suède et la Suisse ont formulé
une réserve en vertu de l’article 35(7) de l’IM BEPS afin de reporter l’entrée en vigueur de l’IM BEPS jusqu’au moment où ils auront accompli
leurs procédures internes.
Lacunes dans la couverture de l’IM BEPS
53.
L’examen par les pairs de 2022 a mis en évidence des lacunes dans la couverture de l’IM BEPS.
Ces lacunes s’expliquent par le fait que l’IM BEPS est un instrument flexible qui autorise chaque signataire
à choisir parmi ses conventions celles qu’il souhaite soumettre à l’IM BEPS. Ainsi, au moment de la
signature, les signataires sont tenus de déposer des listes de conventions qu’ils souhaitent modifier. L’IM
modifie uniquement les conventions bilatérales notifiées par les deux partenaires de convention.
Conventions unilatérales
54.
Lorsque deux partenaires de convention ont signé l’IM BEPS mais qu’un seul a notifié une
convention aux fins de l’IM BEPS, le standard minimum ne sera pas mis en œuvre dans cette convention.
La méthodologie révisée précise que lorsque deux partenaires ont signé l’IM BEPS mais qu’un seul a
notifié la convention, la notification de cette convention sera interprétée comme une demande de mise en
œuvre du standard minimum. Les parties seraient alors tenues de mettre en œuvre le standard minimum
dans la convention et de s’entendre au niveau bilatéral sur les modalités de cette mise en œuvre.
55.
L’examen par les pairs de 2022 révèle qu’environ 160 conventions bilatérales, conclues entre des
paires de signataires de l’IM BEPS qui sont membres du Cadre inclusif, ne seraient pas modifiées par l’IM
BEPS parce qu’au stade actuel, une seule juridiction a notifié la convention aux fins de l’IM BEPS
(« conventions unilatérales »)5.
56.
Dans certains cas, le partenaire conventionnel qui n’a pas notifié une « convention unilatérale »
pour qu’elle soit couverte par l’IM BEPS a élaboré un plan visant à mettre en œuvre le standard minimum
dans cette convention en l’incluant dans la liste de ses conventions fiscales couvertes par l’IM BEPS. Dans
d'autres cas, ces « conventions unilatérales » n’ont pas été notifiées aux fins de l’IM BEPS parce que le
partenaire de convention mène des renégociations bilatérales en vue de la mise en œuvre du standard
minimum. Ce partenaire de convention peut également avoir l’intention de couvrir des éléments qui vont
au-delà de la mise en œuvre du standard minimum et d’autres mesures BEPS se rapportant aux
conventions.
Conventions en attente
57.
L’examen par les pairs de 2022 révèle qu’il y a environ 240 conventions bilatérales conclues entre
des paires de juridictions membres du Cadre inclusif pour lesquelles une seule d’entre elles a signé l’IM
BEPS (« conventions en attente »). Ainsi, au stade actuel, aucune de ces conventions ne serait modifiée
par l’IM BEPS. Presque toutes ces conventions seraient couvertes par l’IM BEPS si le partenaire
conventionnel qui ne l’a pas encore signé y adhérait et notifiait la convention.
PRÉVENTION DE L’UTILISATION ABUSIVE DES CONVENTIONS FISCALES – CINQUIÈME RAPPORT D’EXAMEN PAR LES PAIRS SUR LE CHALANDAGE FISCAL © OCDE 2023
25
58.
Le Secrétariat de l’OCDE a communiqué avec certaines des juridictions qui se préparaient à signer
l’IM BEPS dans le cadre de leur plan de mise en œuvre du standard minimum (voir section 4 ci-dessous).
Il s'agissait notamment d’Antigua-et-Barbuda, de l’Eswatini, du Bénin, de la Mauritanieet du Monténégro,
liés par environ 40 conventions en attente qui deviendront des conventions couvertes aux fins de l’IM
BEPS une fois celui-ci signé.
Notes
1
Une autre juridiction non membre du Cadre inclusif (le Lesotho*) a également ratifié l’IM BEPS l’année
dernière.
2
En général, l’IM BEPS a commencé à prendre effet au 1er janvier 2022 pour les conventions conclues
par les juridictions qui l’ont ratifié avant fin septembre 2021.
3
L’Afrique du Sud, Bahreïn, le Belize, la Bulgarie, le Cameroun, la Chine (République populaire de)
(l’instrument d’approbation couvrant également Hong Kong (Chine)), la Roumanie, le Sénégal, les
Seychelles et la Thaïlande (ainsi que le Lesotho*) ont déposé leurs instruments de ratification de l’IM BEPS
BEPS après octobre 2021.
4
L'article 35 de l’IM BEPS énonce les règles de prise d’effet et répartit les modifications en deux catégories
en fonction du type d’impôts auxquels elles s’appliquent. En général, en vertu de l'article 35(1)(a),
s'agissant des impôts prélevés à la source sur des sommes payées ou attribuées à des non-résidents, l’IM
BEPS prend effet à partir du premier jour de l'année civile qui commence à compter de la dernière des
dates à laquelle la Convention entre en vigueur pour chacune des Juridictions contractantes ayant conclu
une Convention fiscale couverte. Concernant tous les autres impôts prélevés par une juridiction, l'article
35(1)(b) dispose que l’IM BEPS prend généralement effet au titre de périodes d’imposition commençant à
l’expiration ou après l’expiration d’une période de six mois calendaires à compter de la dernière des dates
à laquelle la Convention entre en vigueur pour chacune des Juridictions contractantes ayant conclu une
Convention fiscale couverte.
5
L’IM ne peut modifier que les conventions bilatérales qui ont été notifiées par les deux partenaires aux
fins de l’IM BEPS.
PRÉVENTION DE L’UTILISATION ABUSIVE DES CONVENTIONS FISCALES – CINQUIÈME RAPPORT D’EXAMEN PAR LES PAIRS SUR LE CHALANDAGE FISCAL © OCDE 2023
26
3 Plans en vue de la mise en œuvre
du standard minimum, et soutien
apporté aux juridictions
Cadre régissant l'élaboration de plans de mise en œuvre du standard minimum
59.
Un certain nombre de juridictions ont signalé des conventions, conclues avec d'autres membres
du Cadre inclusif, qui ne sont pas conformes, qui ne font pas l’objet d'un instrument de mise en conformité
ou d’une déclaration générale relative à l'adoption de la règle détaillée de limitation des avantages, et pour
lesquelles aucune mesure n’a été prise en vue de mettre en œuvre le standard minimum. Ces conventions
sont répertoriées dans le tableau intitulé « Autres conventions » des sections consacrées aux différentes
juridictions.
60.
Lorsqu’une juridiction n’a pas indiqué les raisons pour lesquelles, à ses yeux, ces conventions ne
soulèvent pas de préoccupations importantes en matière de chalandage fiscal, elle était invitée à élaborer
un plan visant à mettre en œuvre le standard minimum dans ces conventions conclues avec un autre
membre du Cadre inclusif 1.
61.
Les juridictions ayant déjà formulé un tel plan dans le cadre de l’examen par les pairs de 2021 ont
été invitées à faire le point à ce sujet en cas de modification de leur plan. Les juridictions qui éprouveraient
des difficultés à mettre en œuvre leur plan ont pu signaler ces difficultés au Secrétariat.
62.
Le plan devra préciser les modalités de mise en œuvre du standard minimum – par exemple, les
juridictions devront :
inclure leurs conventions fiscales dans la liste des conventions couvertes par l’IM BEPS ;
entreprendre des négociations bilatérales en vue de mettre en œuvre le standard minimum ; ou
signer et ratifier l’IM BEPS et ajouter les conventions à la liste des conventions fiscales couvertes.
63.
Chaque année, les juridictions seront invitées à indiquer les éventuels changements apportés à
leur plan de mise en œuvre et, le cas échéant, à signaler au Secrétariat toute difficulté rencontrée dans la
mise en application de ce plan.
64.
Une recommandation a été adressée aux juridictions qui n’ont pas élaboré de plan (ou qui n’ont
pas fourni de mise à jour d’un plan existant) visant à mettre en œuvre le standard minimum et qui étaient
tenues de le faire. Ces recommandations sont résumées à la section 6 ci-dessous.
Statut des plans de mise en œuvre du standard minimum
65.
Comme mentionné précédemment, les plans de mise en œuvre peuvent prendre des formes
diverses. Alors que certaines juridictions ont adopté le même plan de mise en œuvre pour toutes les
PRÉVENTION DE L’UTILISATION ABUSIVE DES CONVENTIONS FISCALES – CINQUIÈME RAPPORT D’EXAMEN PAR LES PAIRS SUR LE CHALANDAGE FISCAL © OCDE 2023
27
conventions concernées, d'autres ont élaboré un plan sur mesure pour chaque convention. Un petit
nombre de juridictions a fait savoir que leur plan, qui a été examiné avec le Secrétariat de l'OCDE, est
toujours à l'étude, de sorte que le présent rapport n’en fait pas état.
66.
Au total, 31 juridictions ont élaboré un plan pour la mise en œuvre du standard minimum, couvrant
environ [300] conventions non conformes.
67.
La plupart des plans de mise en œuvre présentés cette année ont été initialement élaborés dans
le cadre de l’examen par les pairs de 2021. Des progrès significatifs ont été accomplis depuis. Plusieurs
juridictions ont achevé leurs plans de mise en œuvre pour tout ou partie de leurs conventions, par exemple
en signant l’IM BEPS et en notifiant les conventions devant être couvertes, ou en engageant des
renégociations bilatérales pour mettre à jour leurs conventions. D’autres juridictions ont commencé à
donner effet à leur plan de mise en œuvre, par exemple en soumettant un projet de Position consolidée
sur l’IM BEPS afin d’élargir la liste de leurs conventions fiscales devant être couvertes par l’IM BEPS, ou
en faisant avancer les travaux techniques préalables à la signature de l’IM BEPS. Un certain nombre de
juridictions ont également terminé l’examen du contenu de leur plan de mise en œuvre. Dans certains cas,
de nouveaux plans de mise en œuvre ont été élaborés ou les plans existants ont été étendus, afin de
donner suite aux recommandations formulées en 2021 ou de couvrir des accords non conformes
récemment entrés en vigueur. On trouvera de plus amples informations sur l’état d’avancement des plans
de mise en œuvre des juridictions dans les sections correspondantes du chapitre 8.
68.
Le tableau ci-dessous résume les différentes catégories de plans de mise en œuvre mis en
application en 2022 par les juridictions concernées.
Tableau 3.1. Plans de mise en œuvre du standard minimum
Juridiction
Projet d'adhérer à l’IM
BEPS
Albanie
Antigua-et-Barbuda
Autriche
Bénin
Botswana
Brunei Darussalam
Cabo Verde
République tchèque
République
démocratique
du
Congo
République
dominicaine
Eswatini
Îles Féroé
Gabon
Géorgie
Indonésie
Italie
Jersey
Kenya
Maldives
Mauritanie
Monténégro
IM BEPS
Projet de compléter la liste
des conventions fiscales
couvertes
Autre
À l'étude
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
PRÉVENTION DE L’UTILISATION ABUSIVE DES CONVENTIONS FISCALES – CINQUIÈME RAPPORT D’EXAMEN PAR LES PAIRS SUR LE CHALANDAGE FISCAL © OCDE 2023
28
Norvège
Paraguay
Roumanie
x
x
x
Saint-Kitts-et-Nevis
Afrique du Sud
Sri Lanka
Togo
Trinité-et-Tobago
Émirats arabes unis
Zambie
x
x
x
x
x
x
x
Note : la section consacrée à chaque juridiction contient des renseignements détaillés sur le plan de mise en œuvre correspondant à cette
juridiction.
69.
La plupart des plans qui ont été établis en vue de mettre en œuvre le standard minimum prévoient
l’application des dispositions de l’IM BEPS. De fait, 17 des 26 juridictions qui ont confirmé leur plan ont
l’intention d'appliquer le standard minimum dans les conventions concernées en complétant leur liste de
conventions fiscales couvertes ou en adhérant à l’IM BEPS. À la lumière de l’expérience acquise par de
nombreux membres du Cadre inclusif concernant la signature, la ratification et la mise en œuvre de l’IM
BEPS, cet instrument reste de toute évidence la solution privilégiée pour appliquer le standard minimum.
De nombreuses juridictions font observer que la majorité de leurs conventions sont ou devraient devenir
des conventions appariées en vertu de l’IM BEPS, et apprécient l’efficience offerte par l’IM BEPS en termes
de temps et de ressources.
70.
Les juridictions qui choisissent d'appliquer le standard minimum par d'autres moyens, comme des
négociations bilatérales, le font pour plusieurs raisons. Parfois, ce plan s’inscrit dans un effort plus large
visant à renégocier différents aspects d'une convention, au-delà de la mise en œuvre du standard
minimum. Il se peut aussi que leur partenaire conventionnel ait indiqué qu’il ne souhaitait pas utiliser l’IM
BEPS pour mettre en œuvre le standard minimum dans cette convention. Par ailleurs, les juridictions qui
disposent d’un réseau de conventions restreint sont plus susceptibles d’envisager des négociations
bilatérales pour appliquer le standard minimum.
71.
L'édition 2023 du rapport d’examen par les pairs au titre de l’Action 6 fera un point sur l'état
d'avancement de chacun des plans de mise en œuvre.
Note
1
Le Secrétariat a pris contact avec les juridictions qui comptent des conventions pour lesquelles un plan
de mise en œuvre du standard minimum devait être élaboré afin de les aider à concevoir et à déployer un
tel plan. Si une juridiction souhaite mettre en œuvre le standard minimum par l’intermédiaire de la règle
COP, et que certains ou la totalité de ses partenaires conventionnels sont déjà signataires de l’IM BEPS,
le Secrétariat l’encourage à signer et ratifier l’IM BEPS. Si une juridiction a déjà adhéré à l’IM BEPS, le
Secrétariat l’encourage également à inclure les conventions concernées dans la liste de ses conventions
fiscales devant être couvertes par l’IM BEPS. En ce qui concerne les conventions fiscales qui ne seront
pas couvertes par l’IM BEPS, le Secrétariat engage les partenaires conventionnels à élaborer un plan, et
si possible un plan conjoint, visant à mettre en œuvre le standard minimum.
PRÉVENTION DE L’UTILISATION ABUSIVE DES CONVENTIONS FISCALES – CINQUIÈME RAPPORT D’EXAMEN PAR LES PAIRS SUR LE CHALANDAGE FISCAL © OCDE 2023
29
4 Recommandations
72.
Dans le cadre du soutien apporté aux juridictions dans la mise en œuvre du standard minimum
selon la méthodologie révisée d’examen par les pairs, les membres se voient adresser des
recommandations dans deux cas de figure. Premièrement, les membres qui mettent en œuvre le standard
minimum en signant l’IM BEPS seront invités à prendre les mesures nécessaires pour qu’il prenne effet
au regard des conventions fiscales qu’ils ont conclues. Deuxièmement, les juridictions ayant conclu des
conventions fiscales pour lesquelles un plan de mise en œuvre du standard minimum doit être élaboré se
verront adresser, si elles n’en ont pas formulé un (ou communiqué une version actualisée d’un plan
existant), une recommandation leur permettant d’en présenter un au regard des conventions fiscales
concernées.
73.
Dans le contexte de l’examen par les pairs de 2021, 26 juridictions ont été invitées à prendre des
mesures pour que l’IM BEPS prenne effet au regard de leurs conventions fiscales devant être couvertes.1
Neuf de ces juridictions ont depuis entrepris les démarches attendues à cet égard : [Bahreïn, Belize,
Bulgarie, Cameroun, Chine (République populaire de) (l’instrument d’approbation couvrant également
Hong Kong (Chine)), Roumanie, Afrique du Sud et Sénégal. Les conventions qui seront modifiées par l’IM
BEPS deviendront conformes au standard minimum une fois que les dispositions de l’IM BEPS auront pris
effet. Cette année, 19 juridictions se sont vu recommander de prendre des mesures en vue de la prise
d’effet de l’IM BEPS.
74.
Par ailleurs, quatre juridictions se sont vu adresser cette année des recommandations en vue de
l’élaboration d’un plan ou de la communication d’une version actualisée d’un plan existant pour la mise en
œuvre du standard minimum. On trouvera au chapitre 8 dans les sections consacrées aux différentes
juridictions, plus de détails sur les recommandations formulées.
75.
Le Secrétariat a contacté les juridictions concernées pour leur proposer de les aider, en tant que
de besoin, à prendre les mesures nécessaires pour que l’IM BEPS prenne effet et à élaborer un plan de
mise en œuvre du standard minimum. Comme indiqué à la section 4, le plan devra préciser les modalités
de mise en œuvre du standard minimum. Les juridictions devront, par exemple :
inclure leurs conventions fiscales dans la liste des conventions couvertes par l’IM BEPS ;
entreprendre des négociations bilatérales en vue de mettre en œuvre le standard minimum ; ou
signer et ratifier l’IM BEPS et inscrire les conventions fiscales dans la liste des conventions fiscales
couvertes.
76.
Des recommandations ont été adressées aux juridictions n’ayant pas confirmé l’élaboration d’un
plan de mise en œuvre pour les conventions qui en nécessitent un.
77.
L’édition 2023 du rapport d’examen par les pairs au titre de l’Action 6 fera un point sur les mesures
prises par chaque juridiction qui s’est vu adresser une recommandation.
PRÉVENTION DE L’UTILISATION ABUSIVE DES CONVENTIONS FISCALES – CINQUIÈME RAPPORT D’EXAMEN PAR LES PAIRS SUR LE CHALANDAGE FISCAL © OCDE 2023
30
Note
1
Ce type de recommandations concernent principalement les juridictions qui ont signé l’IM BEPS, mais
n’ont pas encore entrepris les démarches relatives au dépôt de son instrument de ratification
(conformément aux articles 34 et 35 de l’IM BEPS, les dispositions de l’IM BEPS ne peuvent pas
commencer à prendre effet avant l’accomplissement de ces formalités). Dans certains cas, une
recommandation similaire est adressée aux juridictions qui sont Parties à l’IM BEPS, mais ont formulé une
réserve, aux termes de l’article 35(7) de l’IM BEPS, retardant la prise d’effet des dispositions de l’IM BEPS
jusqu’à l’aboutissement de leurs procédures internes, et n’ont pas encore fait savoir que celui-ci était
intervenu pour l’une quelconque de leurs conventions fiscales couvertes.
PRÉVENTION DE L’UTILISATION ABUSIVE DES CONVENTIONS FISCALES – CINQUIÈME RAPPORT D’EXAMEN PAR LES PAIRS SUR LE CHALANDAGE FISCAL © OCDE 2023
31
5 Difficultés liées à la mise en œuvre
du standard minimum
78.
L’examen par les pairs permet aux juridictions qui se heurtent à des difficultés pour obtenir l’accord
d’une autre juridiction en vue de la mise en œuvre du standard minimum de l’Action 6 de soumettre la
question au Secrétariat de l’OCDE. Ce processus, décrit au paragraphe 35 de la version révisée des
documents pour l’examen par les pairs, a initialement été mis en place dans la version 2017 des
documents pour l’examen par les pairs (paragraphe 19) afin de recenser les situations où une juridiction
se retrouve face à un partenaire conventionnel membre du Cadre inclusif qui refuse d’honorer son
engagement à mettre en œuvre le standard minimum. Il a fait l’objet d’un examen dans le cadre de la
révision de la méthodologie d’examen par les pairs, au terme duquel il a été décidé que le processus
convenait en l’état et ne nécessitait pas d’être modifié.
Préoccupation concernant la convention de la CARICOM
79.
La Convention de la CARICOM, conclue en 1994 afin d’encourager le commerce régional et
l’investissement au sein de la Communauté des Caraïbes, contient plusieurs particularités 1, absentes du
Modèle de Convention fiscale de l’OCDE ou du Modèle de Convention des Nations Unies concernant les
doubles impositions, qui pourraient conduire certains flux de revenus à complètement échapper à l’impôt.
Il est possible qu’à l’époque, ces dérogations aux dispositions types des conventions fiscales aient
encouragé une plus grande intégration économique au sein de la Communauté de la CARICOM, mais il
se peut aussi qu’elles aient rendu la Convention de la CARICOM plus vulnérable au chalandage fiscal et
à d’autres formes d’abus.
80.
La convention de la CARICOM ne contient pas les éléments requis pour satisfaire le standard
minimum de l'Action 6. La mise en œuvre du standard minimum de l'Action 6, ou la mise à jour de l'accord
CARICOM de manière plus générale, nécessite l'accord des onze juridictions qui sont parties à cette
convention.
81.
Les précédentes tentatives de renégociation de l'accord de la CARICOM se sont avérées difficiles,
mais des discussions ont été entamées entre les États membres de la CARICOM pour actualiser la
convention de la CARICOM.
82.
Ces discussions font suite aux précédents processus d'examen par les pairs de l'Action 6, au
cours desquels des préoccupations avaient été soulevées au sujet de l'accord CARICOM. Au cours de
l'examen par les pairs de 2019, une juridiction a soulevé une préoccupation concernant la convention et a
appelé les autres partenaires de convention à entamer des discussions pour la moderniser. Lors des
examens par les pairs de 2020 et 2021, les juridictions qui sont parties à la convention de la CARICOM
ont été encouragées à actualiser cette convention en entamant des discussions entre tous les partenaires
de convention.
PRÉVENTION DE L’UTILISATION ABUSIVE DES CONVENTIONS FISCALES – CINQUIÈME RAPPORT D’EXAMEN PAR LES PAIRS SUR LE CHALANDAGE FISCAL © OCDE 2023
32
83.
Le Secrétariat a offert son plein soutien aux juridictions parties à la convention de la CARICOM
qui sont membres du Cadre inclusif afin d’œuvrer à la mise en conformité de cette convention avec le
standard minimum.
Note
1
La Convention de la CARICOM prévoit une imposition à la source quasi exclusive de tous les revenus,
gains et bénéfices. Par ailleurs, certains revenus, les dividendes par exemple, sont entièrement exonérés
d’impôt en application de cette convention.
PRÉVENTION DE L’UTILISATION ABUSIVE DES CONVENTIONS FISCALES – CINQUIÈME RAPPORT D’EXAMEN PAR LES PAIRS SUR LE CHALANDAGE FISCAL © OCDE 2023
33
6 Conclusion et prochaines étapes
84.
De même que l’examen par les pairs de l’an dernier, l’examen par les pairs de 2022 montre qu’en
général, la plupart des juridictions membres du Cadre inclusif respectent leur engagement à mettre en
œuvre le standard minimum. L’examen par les pairs de 2022 montre également que l’IM BEPS, principal
outil utilisé pour appliquer le standard minimum, continue de produire un effet important et vient désormais
renforcer le réseau de conventions fiscales bilatérales des juridictions qui l’ont ratifié.
85.
Comme ceux des années précédents, l’examen par les pairs de cette année révèle toutefois que
le standard minimum établi au titre de l’Action 6 n’est toujours pas mis en œuvre de façon homogène et,
en particulier, qu’il existe une nette différence, au regard de la progression dans la mise en œuvre, entre
les juridictions qui ont ratifié l’IM BEPS et les autres.
86.
Il montre en effet que les juridictions qui n’ont pas signé ou ratifié l’IM BEPS progressent
généralement lentement dans la mise en œuvre du standard minimum. L’examen par les pairs de 2022
met ainsi en évidence le fait que la ratification de l’IM BEPS est un outil efficace pour la mise en œuvre du
standard minimum.
87.
Cela dit, la méthodologie révisée d’examen par les pairs a permis d’apporter de nouveaux
éclairages sur les démarches accomplies pour mettre en œuvre le standard minimum autres que les
mesures prises au titre de l’IM BEPS. Pour l’heure, des démarches de cette nature ont été engagées pour
quelque 230 conventions (parmi lesquelles environ 120 sont aussi concernées par des mesures prises par
le partenaire conventionnel au titre de l’IM BEPS). Par ailleurs, 56 autres conventions conclues entre
membres du Cadre font l’objet d’une déclaration générale, de la part d’une partie, quant à son intention de
recourir à la règle de limitation des avantages détaillée dans le cadre de son engagement à mettre en
œuvre le standard minimum. À titre de comparaison, des mesures destinées à mettre en œuvre le standard
minimum au titre de l’IM BEPS ont été prises pour plus de 410 conventions (parmi lesquelles les 120
susmentionnées, visées par des démarches accomplies par le partenaire conventionnel autres qu’au titre
de l’IM BEPS).
88.
Cette année, plus de 1 050 conventions conclues entre membres du Cadre inclusif étaient
conformes au standard minimum. Ce chiffre représente une hausse de près de 40 % par rapport à 2021.
Au total, près de 2 385 conventions conclues entre membres du Cadre inclusif étaient conformes, faisaient
l’objet d’un instrument de mise en conformité ou de mesures prises par au moins un partenaire
conventionnel pour appliquer le standard minimum, ou d’une déclaration générale formulée par l’un des
partenaires indiquant son intention d’utiliser la règle de limitation des avantages détaillée pour mettre en
œuvre le standard minimum dans l’ensemble de ses conventions bilatérales. Ce nombre représente plus
de 70% du réseau conventionnel.
89.
En outre, l’examen par les pairs de cette année révèle que les juridictions auxquelles il a été
préconisé d’élaborer et de mettre en application des plans de mise en œuvre du standard minimum et ont
réalisé des progrès en ce sens (voir la section 4 plus haut). La majorité de ces plans prévoient d’appliquer
l’IM BEPS aux conventions concernées. Une fois que les dispositions prévues pour appliquer le standard
minimum auront pris effet, le standard minimum sera mis en œuvre, ou en passe de l’être, dans
pratiquement toutes les conventions conclues entre les membres du Cadre inclusif.
PRÉVENTION DE L’UTILISATION ABUSIVE DES CONVENTIONS FISCALES – CINQUIÈME RAPPORT D’EXAMEN PAR LES PAIRS SUR LE CHALANDAGE FISCAL © OCDE 2023
34
Prochaines étapes pour certains membres du Cadre inclusif
90.
Tout comme celui de l’an dernier, l’examen par les pairs de cette année contient, au chapitre 8,
des recommandations adressées aux juridictions qui n’ont pas encore accompli les démarches permettant
à l’IM BEPS de prendre effet ainsi qu’à celles qui n’ont pas encore élaboré de plan de mise en œuvre (ou
communiqué une version actualisée d’un plan existant) dans le but de pouvoir leur apporter le soutien
nécessaire à l’application du standard minimum. Les prochaines étapes immédiates consisteront, pour les
juridictions, à prendre note de ces recommandations et à les suivre dans leur progression vers la mise en
œuvre du standard minimum.
91.
Lorsqu’aucune recommandation n’est formulée, qu’aucun autre problème de mise en œuvre n’est
soulevé concernant la juridiction concernée et qu’aucune autre juridiction n’a fait part de préoccupations
concernant les conventions qu’elle a conclues avec la juridiction concernée, cette dernière ne se voit pas
indiquer d’étapes immédiates à suivre1.
Prochaines étapes pour le Cadre inclusif
92.
La mise en œuvre du standard minimum, en particulier les mesures prises pour suivre les
recommandations formulées et les progrès accomplis dans l’application des plans de mise en œuvre qui
ont été élaborés, continuera de faire l’objet d’un suivi. Comme l’indique la version révisée des documents
pour l’examen par les pairs, le prochain exercice d’examen par les pairs sera lancé au premier semestre
de 2023.
Note
1
La section consacrée à chaque juridiction indique la mention « Aucune juridiction n’a soulevé de
préoccupations concernant les conventions qu’elle a conclues avec la juridiction ».
PRÉVENTION DE L’UTILISATION ABUSIVE DES CONVENTIONS FISCALES – CINQUIÈME RAPPORT D’EXAMEN PAR LES PAIRS SUR LE CHALANDAGE FISCAL © OCDE 2023
35
7 Rappel des faits concernant le
standard minimum établi par
l’Action 6 du BEPS et le mécanisme
d’examen par les pairs
Contexte de l’examen par les pairs
93.
Ces dernières décennies, les conventions fiscales bilatérales conclues par la plupart des
juridictions dans le monde ont permis d’empêcher une double imposition préjudiciable et de lever les
obstacles aux échanges internationaux de biens et de services, ainsi qu’aux mouvements de capitaux, de
technologies et de personnes. Néanmoins, ce réseau étendu de conventions fiscales a aussi donné lieu à
des mécanismes de « chalandage fiscal ».
94.
Ainsi que l’explique le rapport final sur l’Action 6, le chalandage fiscal désigne habituellement le
fait pour une personne de tenter de bénéficier indirectement des avantages prévus par une convention
conclue entre deux États sans être résidente de l’un de ces États. 1
95.
Le chalandage fiscal est dommageable pour plusieurs raisons, notamment :
Les avantages négociés entre les parties à une convention sont économiquement étendus aux
résidents d’une juridiction tierce selon des modalités qui ne correspondaient pas à l’intention des
parties. Le principe de réciprocité est donc violé et l’équilibre des concessions effectuées par les
parties s’en trouve perturbé ;
Le revenu peut échapper totalement à l’impôt ou faire l’objet d’une imposition inadéquate selon
des modalités qui n’étaient pas voulues par les parties ; et
La juridiction de résidence du bénéficiaire ultime du revenu est moins incitée à conclure une
convention fiscale avec la juridiction de la source parce que les résidents de la juridiction de
résidence du bénéficiaire ultime peuvent recevoir indirectement des avantages de la juridiction de
la source sans obligation pour la juridiction de résidence d’accorder des avantages réciproques.
Tentatives précédentes de traiter le problème du chalandage fiscal
96.
Les préoccupations soulevées par le chalandage fiscal ne sont pas nouvelles. Par exemple, en
1977, le concept de « bénéficiaire effectif » a été introduit dans les articles relatifs aux dividendes, intérêts
et redevances du Modèle de Convention fiscale de l’OCDE afin de préciser la signification des termes
« payés à » et de traiter les situations simples de chalandage fiscal dans lesquelles les revenus sont versés
à un résident intermédiaire d’un pays signataire de la convention qui n’est pas considéré comme le
bénéficiaire de ce revenu à des fins d’imposition (tel qu’un agent ou un mandataire). 2
PRÉVENTION DE L’UTILISATION ABUSIVE DES CONVENTIONS FISCALES – CINQUIÈME RAPPORT D’EXAMEN PAR LES PAIRS SUR LE CHALANDAGE FISCAL © OCDE 2023
36
97.
En 1977, les Commentaires sur l’article 1 du Modèle de Convention fiscale de l’OCDE ont
également été mis à jour en vue d’inclure une section consacrée à l’usage incorrect des conventions
fiscales.3 En 1986, le Comité des affaires fiscales (CAF) a publié deux rapports : Les conventions
préventives de la double imposition et l’utilisation des sociétés-écrans et Les conventions préventives de
la double imposition et l’utilisation des sociétés relais. En 2002, le Comité a publié le rapport intitulé La
limitation du droit aux avantages des conventions fiscales. Les Commentaires sur l’article 1 ont été enrichis
à plusieurs occasions, notamment en 2003, avec l’ajout de divers exemples de dispositions dont les pays
pouvaient s’inspirer pour lutter contre le chalandage fiscal.
98.
L’examen des pratiques des juridictions montre qu’elles ont tenté de résoudre les problèmes de
chalandage fiscal par le passé en suivant diverses approches. Certaines ont eu recours à des règles antiabus spécifiques fondées sur la nature juridique, la propriété et les activités générales des résidents d’une
juridiction partie à une convention fiscale.4 D’autres ont privilégié une règle anti-abus de portée plus
générale faisant référence à l’objet principal des montages ou des transactions.
Le BEPS et chalandage fiscal
99.
Le Plan d’action BEPS,5 élaboré par le CAF et validé par les dirigeants des pays du G206 en
septembre 2013, recensait 15 actions à engager pour apporter une réponse aux pratiques d’érosion de la
base d’imposition et de transfert de bénéfices (BEPS). Il mentionnait l’utilisation abusive des conventions
fiscales et, en particulier, le chalandage fiscal, comme l’un des plus importants sujets de préoccupation
dans le domaine du BEPS.
100.
L’Action 6 (Empêcher l’utilisation abusive des conventions fiscales) du Plan d’action BEPS
prévoyait l’élaboration de dispositions conventionnelles visant à empêcher l’octroi des avantages des
conventions fiscales lorsque les circonstances ne s’y prêtent pas. En parallèle, l’Action 15 du Plan d’action
BEPS prévoyait d’analyser la possibilité d’élaborer un instrument multilatéral en vue de déployer les
mesures BEPS relatives aux conventions fiscales « permettant aux juridictions qui le souhaitent de mettre
en œuvre les mesures mises au point dans le cadre des travaux relatifs au Projet BEPS et de modifier les
conventions fiscales bilatérales ».
101.
Après deux années de travaux, le CAF, réunissant les pays de l’OCDE et du G20 œuvrant sur un
pied d’égalité, a produit l’Ensemble final des rapports BEPS 7, qui a été entériné par le Conseil de l’OCDE
et par les dirigeants du G20 en novembre 2015.
102.
Les juridictions sont convenues que quatre mesures BEPS constitueraient des standards
minimums que les juridictions participantes devraient s’engager à appliquer. Le Rapport sur l’Action 6
établit l’un de ces standards minimums, à savoir que les juridictions s’engagent à inclure dans leurs
conventions fiscales des dispositions portant sur le chalandage fiscal visant à garantir une protection
minimale contre l’utilisation abusive des conventions.
Le standard minimum établi par l’Action 6
103.
Le standard minimum relatif au chalandage fiscal impose aux juridictions d’inclure deux éléments
dans leurs conventions fiscales : une déclaration explicite sur la volonté d’éliminer la double imposition
sans créer de possibilités de non-imposition (généralement dans le préambule) et l’une des trois méthodes
permettant de résoudre le problème du chalandage fiscal.
104.
Le standard minimum ne précise pas comment ces deux éléments doivent être mis en œuvre (via
l’IM BEPS ou des instruments portant modification). Il est toutefois reconnu que ces dispositions doivent
être adoptées au niveau bilatéral et qu’une juridiction sera tenue d’appliquer le standard minimum
lorsqu’un autre membre du Cadre inclusif le lui demande.
PRÉVENTION DE L’UTILISATION ABUSIVE DES CONVENTIONS FISCALES – CINQUIÈME RAPPORT D’EXAMEN PAR LES PAIRS SUR LE CHALANDAGE FISCAL © OCDE 2023
37
La déclaration explicite
105.
Comme indiqué aux paragraphes 22 et 23 du rapport final sur l’Action 6, les juridictions se sont
engagées à inclure dans leurs conventions fiscales une déclaration explicite indiquant que leur intention
commune est d’éliminer la double imposition sans créer de possibilités de non-imposition ou d’imposition
réduite résultant de comportements de fraude ou d’évasion fiscale, en particulier par le recours à des
mécanismes de chalandage fiscal. La disposition suivante figure désormais dans la version 2017 du
Modèle de Convention fiscale :
Entendant conclure une Convention pour l’élimination de la double imposition en matière d’impôts sur le revenu
et sur la fortune sans créer de possibilités de non-imposition ou d’imposition réduite par l’évasion ou la fraude
fiscale (y compris par des mécanismes de chalandage fiscal destinés à obtenir les allégements prévus dans
la présente Convention au bénéfice indirect de résidents d’États tiers)
Trois méthodes pour traiter le chalandage fiscal
106.
Les juridictions se sont également engagées à concrétiser leur « intention commune » en intégrant
des dispositions dans leurs conventions sous l’une des trois formes suivantes :
i)
un critère des objets principaux (COP) équivalent au paragraphe 9 de l’article 29 du
Modèle de Convention fiscale de l’OCDE de 2017, accompagné d’une version simplifiée ou d’une
version détaillée de la règle de la limitation des avantages figurant aux paragraphes 1 à 7 du
Modèle de l’OCDE de 2017 ; ou
ii)
iii)
une version détaillée de la règle de la limitation des avantages (LOB) complétée par un
mécanisme (sous la forme d’un critère des objets principaux limité aux mécanismes de relais ou
de règles législatives ou jurisprudentielles anti-abus nationales aboutissant à un résultat similaire)
permettant de viser les mécanismes de relais qui ne sont pas déjà traités dans les conventions
fiscales.
le COP seul ; ou
L’obligation de mettre en œuvre le standard minimum
107.
Le rapport sur l’Action 6 reconnaît qu’une « certaine souplesse dans l’application du standard
minimum est requise, car ces dispositions doivent être adaptées à la situation spécifique du pays et aux
circonstances qui entourent la négociation des conventions bilatérales ». En particulier :
Une juridiction est tenue d’appliquer le standard minimum dans une convention uniquement si un
autre membre du Cadre inclusif le lui demande.
Les modalités de mise en œuvre de ce standard minimum dans chacune des conventions fiscales
bilatérales devront faire l’objet d’un accord entre les juridictions contractantes.
Cet engagement s’applique aux conventions existantes et futures, mais étant donné que la
conclusion d’une nouvelle convention et la modification d’une convention existante dépendent de
l’équilibre général des dispositions d’une convention, cet engagement ne doit pas être interprété
comme l’engagement de conclure de nouvelles conventions ou de modifier des conventions
existantes dans un certain délai.
Si une juridiction n’est pas inquiète des conséquences du chalandage fiscal sur ses propres droits
d’imposition en tant qu’État de la source, elle ne sera pas obligée d’appliquer des dispositions
telles que la règle de la limitation des avantages ou du critère des objectifs principaux dès lors
qu’elle accepte d’inclure dans une convention des dispositions que son partenaire conventionnel
pourra utiliser à cette fin.
PRÉVENTION DE L’UTILISATION ABUSIVE DES CONVENTIONS FISCALES – CINQUIÈME RAPPORT D’EXAMEN PAR LES PAIRS SUR LE CHALANDAGE FISCAL © OCDE 2023
38
108.
Il ressort aussi de l’Action 6 que, si l’IM BEPS offre aux juridictions qui choisissent d’appliquer la
règle du critère des objets principaux un moyen efficace d’assurer la mise en œuvre rapide du standard
minimum, la participation à l’IM BEPS n’étant pas obligatoire, les juridictions peuvent préférer d’autres
options pour garantir le respect du standard minimum. Toutefois, les juridictions qui ont adhéré à l’IM BEPS
sont censées prendre des mesures pour s’assurer qu’il commence à prendre effet au regard de leurs
conventions fiscales couvertes. Lorsque deux parties à une convention fiscale ont signé l’IM BEPS mais
qu’une seule a inclus la convention fiscale dans la liste des conventions fiscales couvertes, le fait d’inscrire
la convention fiscale équivaut à une demande de mise en œuvre du standard minimum.
109.
En mai 2017, le Cadre inclusif a défini les termes de référence et la méthodologie applicables à
l’examen par les pairs (documents pour l’examen par les pairs de 2017)) (OCDE, 2017[1]), et a décidé que
la méthodologie serait réexaminée en 2020. En 2021, les membres du Cadre inclusif ont approuvé le
document pour l’examen par les pairs de 2021, (OCDE, 2021[2]) qui est une version actualisée des
documents d’examen par les pairs de 2017. Les modifications apportées aux documents pour l’examen
par les pairs portent sur la méthodologie ; les modifications concernant les autres sections sont
essentiellement de nature rédactionnelle. Le standard minimum de l’Action 6 et les éléments figurant dans
les Termes de référence restent inchangés.
110.
Ce document pour l’examen par les pairs de 2021 sert de base à la conduite des examens par les
pairs du standard minimum de l’Action 6 menés à partir de 2021. Il décrit : le principal résultat de l’examen
par les pairs et du processus de suivi ; le processus de résolution des questions d’interprétation et
d’application susceptibles de se poser au cours de la mise en œuvre du standard minimum sur le
chalandage fiscal ; la procédure à suivre par les juridictions qui rencontrent des difficultés à obtenir l’accord
d’une autre juridiction membre du Cadre inclusif sur le BEPS pour mettre en œuvre le standard minimum
de l’Action 6 ; et la confidentialité des documents produits au cours du processus d’examen.
L'examen par les pairs 2018
111.
Le premier examen par les pairs a été réalisé en 2018 et couvrait les 116 juridictions membres du
Cadre inclusif au 30 juin 2018. Le Rapport d’examen par les pairs, adopté par le Cadre inclusif en janvier
2019, a été publié le 14 février 2019.
112.
L’examen par les pairs de 2018 a révélé que, dans la mesure où les dispositions de l’IM BEPS
n’avaient pas pris effet au moment de ce premier examen, pratiquement aucune des conventions
examinées pour ce rapport n’était encore conforme au standard minimum. Des progrès substantiels
avaient cependant été accomplis en 2017 et 2018 en faveur de la mise en œuvre du standard minimum,
et les membres du Cadre inclusif, dans leur grande majorité, avaient commencé à traduire leur
engagement vis-à-vis du chalandage fiscal en actions concrètes et s’employaient à modifier leur réseau
de conventions.
113.
Au total, l’examen par les pairs a révélé qu’au 30 juin 2018, 82 juridictions comptaient un certain
nombre de conventions déjà conformes au standard minimum ou faisant l’objet d’un instrument de mise
en conformité qui devaient les rendre conformes8. Le premier examen par les pairs a mis en exergue
l’efficacité avec laquelle l’IM BEPS met en œuvre les mesures relatives aux conventions fiscales pour
prévenir le BEPS. Cet instrument constituait de loin l’outil préféré par les membres du Cadre inclusif pour
mettre en œuvre le standard minimum.
114.
Toutes les inquiétudes soulevées par les juridictions dans le cadre du premier examen par les
pairs quant à la mise en œuvre du standard minimum dans leurs conventions avaient été levées lors de
l’approbation du rapport par le Cadre inclusif. Par conséquent, aucune recommandation n’a été formulée
dans le cadre du premier examen par les pairs.
PRÉVENTION DE L’UTILISATION ABUSIVE DES CONVENTIONS FISCALES – CINQUIÈME RAPPORT D’EXAMEN PAR LES PAIRS SUR LE CHALANDAGE FISCAL © OCDE 2023
39
L’examen par les pairs de 2019
115.
Réalisé en 2019, le deuxième examen par les pairs couvrait les 129 juridictions membres du Cadre
inclusif au 30 juin 2019. Le rapport d’examen par les pairs, adopté par le Cadre inclusif en janvier 2020, a
été publié le 24 mars 2020.
116.
L’examen par les pairs de 2019 a révélé qu’au 30 juin 2019, 91 membres du Cadre inclusif avaient
commencé à actualiser leur réseau de conventions fiscales bilatérales et mettaient en œuvre le standard
minimum. Les données compilées pour cet examen par les pairs montraient que l’IM BEPS avait été l’outil
utilisé par la grande majorité des juridictions qui avaient commencé à mettre en œuvre le standard
minimum.
117.
Au 30 juin 2019, l’IM BEPS avait déjà modifié environ 60 conventions bilatérales et son impact
devait augmenter rapidement avec sa ratification par les juridictions.
118.
Au cours du deuxième examen par les pairs, une juridiction a exprimé une inquiétude concernant
la Convention de la CARICOM, convention multilatérale conclue entre onze juridictions, dont dix membres
du Cadre inclusif. La Convention de la CARICOM, conclue en 1994 afin d’encourager le commerce
régional et l’investissement au sein de la Communauté des Caraïbes, contient plusieurs particularités9,
absentes du Modèle de Convention fiscale de l’OCDE ou du Modèle de Convention des Nations Unies
concernant les doubles impositions, qui pourraient conduire certains flux de revenus à complètement
échapper à l’impôt. Il est possible qu’à l’époque, ces dérogations aux dispositions types des conventions
fiscales aient encouragé une plus grande intégration économique au sein de la Communauté de la
CARICOM. Cependant, il est également possible qu'elles aient rendu la Convention de la CARICOM plus
vulnérable au chalandage fiscal et à d’autres formes d’abus. Les précédentes tentatives de renégociation
de la Convention de la CARICOM s’étaient heurtées à des difficultés.
L'examen par les pairs 2020
119.
Réalisé en 2020, le troisième examen par les pairs couvrait les 137 juridictions membres du Cadre
inclusif au 30 juin 2020. Le Rapport d’examen par les pairs, adopté par le Cadre inclusif en février 2021,
a été publié le 1er avril 2021.
120.
Il a révélé qu’au 30 juin 2020, 98 juridictions du Cadre inclusif comptaient des conventions déjà
conformes au standard minimum ou qui, parce qu’elles faisaient l’objet d’un instrument de mise en
conformité, étaient en passe de l’être. Les données compilées pour cet examen par les pairs montraient
que l’IM BEPS avait été l’outil utilisé par la grande majorité des juridictions qui avaient commencé à mettre
en œuvre le standard minimum.
121.
Au 30 juin 2020, l’IM BEPS avait déjà modifié environ 350 conventions bilatérales et son impact
devait augmenter rapidement avec sa ratification par les juridictions.
122.
En ce qui concerne la convention de la CARICOM, la préoccupation soulevée en 2019 était
toujours actuelle, puisque les parties à la convention de la CARICOM ne l’avaient pas encore modernisée.
Toutes les juridictions qui ont adhéré à la convention de la CARICOM ont été invitées à actualiser cette
convention en engageant des discussions avec l’ensemble des partenaires conventionnels.
123.
En outre, des encouragements ont été adressés aux membres du Cadre inclusif ayant signé l’IM
BEPS, mais ne l’ayant pas encore ratifié, car les conventions notifiées au titre de l’IM BEPS ne
commencent à devenir conformes qu’à l’issue de leur ratification.
124.
Par ailleurs, le rapport d’examen par les pairs 2020 sur l’Action 6 a mis en évidence des lacunes
dans la couverture de l’IM BEPS ou des « conventions non couvertes » par l’IM BEPS (conventions
conclues entre des paires de signataires de l’IM BEPS dont l’un des partenaires n’a pas notifié la
PRÉVENTION DE L’UTILISATION ABUSIVE DES CONVENTIONS FISCALES – CINQUIÈME RAPPORT D’EXAMEN PAR LES PAIRS SUR LE CHALANDAGE FISCAL © OCDE 2023
40
convention aux fins de l’IM BEPS, et conventions conclues entre des juridictions dont une seule a signé
l’IM BEPS).
125.
L'examen par les pairs 2021Réalisé en 2021, le quatrième examen par les pairs couvrait les 139
jurisdictions membres du Cadre inclusif au 30 juin 2021. Le Rapport d’examen par les pairs, adopté par le
Cardre inclusif en février 2022, a été publié le 21 mars 2022
126.
L'examen par les pairs de 2021 a été le premier examen par les pairs à être régi par la
méthodologie d'examen par les pairs révisée dans le document d'examen par les pairs de 2021. En 2021,
l’IM BEPS a continué à étendre de manière significative la mise en œuvre du standard minimum pour les
juridictions qui l'ont ratifié. Le nombre de conventions conformes conclus entre les membres du Cadre
inclusif et couverts par l’IM BEPS a presque doublé, passant d'environ 350 à plus de 650 (sur environ 710
de conventions conformes), entre les examens par les pairs de 2020 et 2021.
127.
Au total, au 30 juin 2021, environ 2 330 conventions conclues entre des membres du Cadre inclusif
sont soit conformes, soit soumis à un instrument de mise en conformité, soit soumis à des mesures prises
par au moins un partenaire conventionnel pour mettre en œuvre le standard minimum, soit font l'objet
d'une déclaration générale d'un partenaire conventionnel indiquant qu'il a l'intention d'utiliser la règle de
limitation des avantages détaillée, ainsi qu'un mécanisme visant les financements par des sociétés-relais,
pour mettre en œuvre le standard minimum dans toutes ses conventions bilatérales.
128.
L'examen a également révélé les plans élaborés par les juridictions pour mettre en œuvre le
standard minimum dans des conventions non conformes conclues avec d'autres membres du Cadre
inclusif, qui ne faisaient pas déjà l'objet d'un instrument de mise en conformité ou d'une déclaration
générale sur la règle de limitation des avantages détaillée, et pour lesquels aucune mesure n'a été prise
pour mettre en œuvre le standard minimum (et où aucune raison n'a été fournie pour lesquelles la
convention fiscale en question ne soulève pas de préoccupation importante, pour ce membre, en matière
de chalandage fiscal). La grande majorité de ces plans impliquaient l'application du standard minimum aux
conventions concernées. Une fois que tous les plans de mise en œuvre du standard minimum seront en
vigueur, le standard minimum sera mis en œuvre, ou en passe de l'être, dans la quasi-totalité des
conventions conclues entre les membres du Cadre inclusif.
129.
Enfin, des recommandations ont été formulées dans le cadre de l'examen à l'intention des
juridictions qui devaient formuler un plan pour la mise en œuvre du standard minimum, et de celles qui
avaient signé l’IM BEPS mais n'avaient pas encore accompli les démarches pour l'entrée en vigueur de
ses dispositions.
Conduite de l’examen par les pairs 2022
130.
L’examen a débuté par l’envoi d’un questionnaire aux membres du Cadre inclusif en mars 2022.
Ce questionnaire était similaire au questionnaire utilisé en 2021, reflétant la méthodologie révisée dans le
document d'examen par les pairs de 2021. Comme pour les questionnaires des années précédentes10, il
a été demandé à chaque juridiction d'énumérer toutes les conventions fiscales globales en vigueur.
131.
Pour chaque convention fiscale répertoriée, les membres précisent si elle est ou non conforme au
standard minimum tel que décrit dans les termes de référence au paragraphe 2 ci-dessus. Une convention
fiscale est considérée conforme au le standard minimum si tel était le cas au moment de sa conclusion, si
un instrument portant modification qui met en œuvre le standard minimum est en vigueur, ou si les
dispositions applicables de l’IM BEPS ont commencé à prendre effet pour cette convention fiscale
(conformément à l’article 35 de l’IM BEPS).
132.
Pour chaque convention fiscale répertoriée non conforme au standard minimum, les membres
précisent si la convention est ou non en voie de satisfaire au standard minimum (c’est-à-dire si elle fait
l’objet d’un instrument de mise en conformité). C’est le cas si un membre a signé l’IM BEPS et que les
PRÉVENTION DE L’UTILISATION ABUSIVE DES CONVENTIONS FISCALES – CINQUIÈME RAPPORT D’EXAMEN PAR LES PAIRS SUR LE CHALANDAGE FISCAL © OCDE 2023
41
deux juridictions ont inscrit la convention dans la liste des conventions devant être couvertes par l’IM
BEPS. C’est aussi le cas si une convention fiscale bilatérale portant modification et mettant en œuvre le
standard minimum dans la convention a été signée ou si une toute nouvelle convention conforme au
standard minimum de l’Action 6 et destinée à remplacer cette convention a été signée.
133.
| 25,799
|
dumas-04192076-PIGNOL%20Baptiste.txt_3
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,023
|
Optimisation du recueil de données de la procédure de protection des captages d’eau potable : étude de cas et mise en application. Sciences de l'environnement. 2023. ⟨dumas-04192076⟩
|
None
|
French
|
Spoken
| 7,176
| 10,723
|
L’inventaire de l’environnement du captage doit être des plus exhaustif, notamment s’il y une présence de « zone humide » qui est un terme à prendre avec précautions car pour dire s’il y a présence ou non d’une zone humide, un inventaire floristique doit être réalisé pour déterminer, ce qui n’est pas le cas actuellement46.
44 DDASS de la Lozère. (2008). Police de l’eau et des milieux aquatiques : La politique d’opposition à déclaration. 45 Conseil d’État, 9ème—10ème chambres réunies, 22/02/2017, 386325, No 386325 (Conseil d’État 22 février 2017). 46 Note technique du 26 juin 2017 relative à la caractérisation des zones humides. - Légifrance. (S. d.). Consulté 8 juin 2023, à l’adresse https://www.legifrance.gouv.fr/circulaire/id/42418?fonds=CIRC&page=1& Size=10&query zone humide
Les sources d’optimisation : la phase de recueil de données
• Le maître d’ouvrage = l’exploitant/concessionnaire du captage : Le maître d’ouvrage, c’est-à-dire la commune ou l’EPCI en charge de la gestion de l’eau potable, valide en partie les éléments et les décisions du dossier préliminaire dans lequel le recueil de données apparait. Il valide ou désapprouve, entre autres, les périmètres de protection, les servitudes et les travaux à réaliser avec les autres acteurs concernés. Cependant, ce n’est pas lui qui donne la décision finale. C’est notamment l’hydrogéologue agréé qui va valider l’ensemble de cette procédure. En ce qui concerne la méthode du recueil de données, il n’a pas d’attente particulière si ce n’est la vér cité de la donnée qui y est présente. • Le bureau d’études = le maître d’œuvre
Le bureau d’étude fait l’intégralité du dossier préliminaire et de recueil de données. L’ensemble du travail doit être validé par concertation de l’ARS, de la DDT, du maître d’ouvrage, etc. C’est aussi lui qui suit l’ensemble des procédures s’il a la mission de maître d’œuvre. Il n’a pas d’attentes particulières mais un devoir de conseil et doit être le plus exhaustif possible dans les données prélevées et transmises.
Figure 14 : Logo de SOGEXFO
Il doit réaliser ce qui est demandé dans le cahier des charges de la commande. Cependant, il peut mettre en œuvre des méthodes pour parvenir au résultat rapidement. C’est notamment le cas d’un SIG qui sera expliqué dans la suite de ce mémoire. L’enquête agricole n’est actuellement pas ou que très sommairement réalisée par le bureau d’étude puisqu’initialement, c’est de la responsabilité de l’hydrogéologue agréé avec l’aide de la chambre d’agriculture et du maître d’ouvrage qui la réalisait. Cette mission n’est pas confiée au bureau d’étude dans le cahier des charges et il ne peut se permettre de réaliser des prestations complémentaires qui ne lui seront pas payées. Il faudrait que cela soit explicitement mentionné dans le cahier des charges ou dans ses missions.
• Le géomètre expert
Le Géomètre-Expert a un devoir de conseil sur des limites à appliquer sur les périmètres de protection à borner, c’est à dire les PPI. Cependant, il n’intervient ni durant la phase du dossier préalable ni dans l’étape de la définition des périmètres de protection. Théoriquement, il n’intervient que pour localiser précisément l’ouvrage de captage et le périmètre de protection existant. Cependant, des questions se posent au niveau de l’enquête publique et de la DUP. Il faut en effet prévenir les propriétaires de terrains concernés mais pour se faire, il faut être sûr des limites de propriété puisqu’au final, une acquisition de terrains dans le PPI sera faite si le terrain appartient à une personne privée. Il en est de même ALL& Les sources d’optimisation : la phase de recueil de données pour le PPR puisque des servitudes y sont imposées ce qui est une contrainte pour les propriétaires. Autre élément important, la mise en place d’une procédure d’AFAFE en parallèle de la procédure de protection des captages dans le but d’avoir une répartition équitable des contraintes d’utilité publique. Seul un Géomètre-Expert agréé en la matière est habilité à réaliser cette procédure d’aménagement.
• Le département avec le SATEP
Figure 15 : Logo du département de la Lozère
Le Département est un des financeurs pour les projets de protection des captages d’eau potable. Il doit avoir un dossier complet et sérieux pour réserver et valider les montants de subvention à donner au maître d’ouvrage. Il apporte aussi une vision notamment sur les travaux à réaliser pour la protection des captages. Il assiste techniquement le maître d’ouvrage avec son service d’assistance technique à l’exploitation des ouvrages d’eau potable. L’assistance concerne la régularisation administrative, la mise en œuvre des travaux de protection et leurs suivis. En ce qui concerne la méthode du recueil de données existante, il préférerait, pour les captages déjà présents, se concentrer sur les données des compteurs généraux pour estimer les besoins en eau et les besoins de prélèvement dans le milieu naturel. Les données théoriques prennent trop de temps à produire et sont parfois peu corrélables avec la réalité. Les points d’abreuvement doivent aussi être connus en position pour anticiper les éventuelles restrictions dans les servitudes de PPR. • L’agence de l’eau 47 : L’agence de l’eau, comme le Département, est un financeur important pour les projets de protection des captages d’eau. La Lozère a la particularité d’avoir 3 bassins versants, Adour Garonne, Rhône-Méditerranée et Loire48.Chaque bassin versant est géré par une agence de l’eau différente. Elle apporte un financement pour les projets de protection de captages. Elle n’a pas d’attentes particulières par rapport au dossier
Figure 16 : Logo de l'agence de l'eau Adour Garonne préliminaire mais demande ce
pendant
de respecter quelques conditions d’éligibilité aux aides pour les travaux d’eau potable.
Par
exemple
, pour l’agence de l’eau Rhône-Méditerranée-corse :
• L’eau doit avoir un certain prix au mètre cube. • Elle veut aussi à minima 4 indicateurs sur le service public d’eau et assainissement : 47 Aide—Mettre en place la protection réglementaire des captages d’eau potable—Agence de l’eau Rhône Méditerranée Corse. (S. d.). Consulté 16 février 2023, à l’adresse https://www.eaurmc.fr/jcms/vmr_7133/fr/aide-mettre-en-place-laprotection-reglementaire-des-captages-d-eau-potable 48 Eau et assainissement—Département de la Lozère. (S. d.). Consulté 16 février 2023, à l’adresse https://lozere.fr/solidarite-territoriale-attractivite/vous-avez-un-projet/ingenierie-projet-et-technique/ingenierietechnique/environnement/eau/eau-et-assainissement Les sources d’optimisation : la phase de recueil de données • o Prix TTC du service au m3 pour 120 m3 (sauf pour les services gérant uniquement la production ou le transfert d'eau potable), o Indice de connaissance et de gestion patrimoniale des réseaux de distribution d'eau potable (sauf pour les services gérant uniquement la production d'eau potable), o Rendement moyen des réseaux de distribution d'eau potable, o Taux moyen de renouvellement des réseaux d'eau potable (sauf pour les services gérant uniquement la production d'eau potable). Elle désire aussi un Indice de Connaissance et de Gestion Patrimoniale (ICGP) minimum de : 60/120 pour l'eau potable (indicateur SISPEA P103.2B). Ces éléments devraient être ajoutés à la liste de données à mettre dans le recueil de données, puisque c’est à partir de ces dernières que les subventions sont accordées à hauteur de 40% du montant total de la procédure. Cela permettrait ainsi à l’agence de l’eau d’avoir en amont de demande de subvention, les éléments nécessaires pour le vote de la subvention et donc raccourcir les délais administratifs. Ce qui n’est pas le cas à l’heure actuelle. • L’hydrogéologue agréé
L’hydrogéologue, désigné par le préfet du département, n’a pas d’objectifs particuliers dans la protection de la ressource en eau. Cependant, il met en œuvre grâce au recueil de données du bureau d’étude, une description précise de l’environnement du captage pour déterminer la taille, la forme et l’emplacement des périmètres de protection. Il propose aussi, en accord avec l’ARS, les servitudes à appliquer dans le PPR. Il lui faut donc des informations claires et précises sur les activités, sur la topographie autour du captage. Du plus, il demande, sur les plans que doit fournir le bureau d’étude, qu’apparaisse une échelle graphique en plus de l’échelle numérique. En effet, l’échelle graphique permet une meilleure compréhension des plans et est toujours vraie quel que soit la taille du plan. 2.1.3 Conclusion : Pour parvenir à satisfaire l’ensemble des acteurs, un SIG est l’une des solutions à mettre en ouvrage pour mettre en relation toutes les données est avoir une vue d’ensemble sur les données recueillies. 2.2 Élaboration de la méthodologie de l’optimisation 2.2.1 Une délimitation ou un bornage préalable pendant l’étape de recueil de données
Dans la procédure actuelle, le bornage du PPI est réalisé après la procédure de l’enquête publique et après l’arrêté de DUP. Cependant une enquête parcellaire doit être réalisée dans le dossier préliminaire qui comprend le recueil de données, or à ce stade, sans connaissance réelle des limites des périmètres de protection. On ne peut pas savoir avec Baptiste Pignol 36 /07/2023 Les sources d’optimisation : la phase de recueil de données exactitude les propriétaires qui sont impactés. Pour rappel, le cadastre n’est pas une preuve de la limite de propriété en France (hors territoire de l’Alsace avec le livre foncier en équivalence). Il intervient seulement à titre indicatif et est utilisé comme base de pour l’impôt foncier. Pour être au maximum sûr des propriétaires impactés, il faut donc procéder à une détermination précise des limites de propriété, et non pas une simple application cadastrale, et à une délimitation précise du PPI. Cette étape n’est pas nécessaire pour le PPR qui ne concerne pas une acquisition des terrains par la personne en charge de la distribution de l’eau mais dont les parcelles concernées sont « uniquement » grevées de servitude. Néanmoins, si l’acquisition du PPR est obligatoire pour des raisons de servitude trop contraignantes, la même étape que pour le PPI doit être envisagée. Détermination de l’emprise par application cadastrale
A B Détermination de l’emprise avec vérification des limites par un « levé de calage » A B 2 2 C C Figure 17 : Schéma de la détermination de l'emprise d'un PPI avec et sans vérification des limites de propriété
Ainsi, le bornage se fait relativement tard dans la procédure, il faudrait presque qu’il soit réalisé dès l’étude faite par l’hydrogéologue agréé et de l’approbation de son dossier par l’ARS. En effet, dans le cas où l’emprise d’un PPI de captage est essentiellement sur une seule et même parcelle et qu’il n’y a pas d’ambiguïtés sur les limites de propriété, le bornage peut se faire à cette étape. Cependant, si l’emprise du PPI intersecte plusieurs parcelles et en plus de cela que les limites de propriété ne sont pas clairement définies, il serait préférable de réaliser au moins une implantation (levé de calage) du PPI avant d’entamer la procédure d’enquête publique. Les limites cadastrales ne correspondent pas toujours aux limites de propriété. Ceci veut dire que les données de l’état parcellaire d’un PPI peuvent être erronées et induire une mauvaise estimation, de la part des services des domaines, des indemnisations qui sont dues aux propriétaires impactés. Dans l’exemple ci-dessus, avec une simple application cadastrale, le propriétaire de B aurait été pris en compte dans les propriétaires à qui il faudrait acheter la partie de la parcelle qui intersecte avec le PPI. Cette erreur aurait ainsi été prise en compte dans la déclaration d’utilité publique. Dans la deuxième situation, les véritables limites de propriété sont connues, grâce à un levé de calage. Les estimations peuvent ainsi être réalisées avec certitude et être intégrées sans erreurs possible dans la DUP. Cependant, cet exemple ne fonctionne que si l’acquisition de l’emprise peut se faire à l’amiable. Dans le cas contraire, il faut recourir à une procédure d’expropriation. Et dans ce cas, l’enquête parcellaire a bien un plan avec des limites définies.
Les sources d’optimisation : la phase de recueil de données 2.2.2 Le descriptif par réseaux de distribution
Cette partie du recueil de données n’a pas de modification à prévoir. Il faudrait cependant voir s’il est possible de réaliser un périmètre pour chaque UDI. A l’heure actuelle, un plan de situation du réseau AEP est produit avec une description des UDI. Une représentation graphique de périmètre de l’UDI aiderait à la bonne compréhension de parcours de l’eau potable. Il faudrait aussi mettre plus en avant les consommations réelles données par les compteurs généraux en plus des besoins théoriques calculés sur l’UDI.
2.2.3 La connaissance de la ressource, descriptif des ouvrages de captage. Il n’y a pas d’éléments à rajouter ou à modifier pour les caractéristiques des ouvrages. Cependant, l’ouvrage de captage est positionné sur plan cadastral non appliqué au terrain. Il devrait
être positionné précisément sur un plan avec une application cadastrale qui corrèle à la réalité du terrain, et ainsi pouvoir le comparer avec le plan de bornage du PPI. La qualité de la ressource est contrôlée par les analyses de première adduction et par le contrôle sanitaire de la ressource. A ce niveau-là, il n’y a pas d’amélioration possible. Cependant, les taux de concentration d’éléments polluants peuvent être plus mis en relation avec les inventaires de risques de pollution. Les données géologiques et hydrologiques sont réalisées par un hydrogéologue agréé. Un plan topographique avec application cadastral doit lui être fournir par le géomètre (ici, propre au bureau d’étude). La réalisation du levé topographique devrait se faire en concertation de l’hydrogéologue agréé pour pouvoir faire une pré-délimitation du PPI et ainsi pouvoir vérifier avec les données recueillies (géologie et hydrologie), si cette pré-implantation est cohérente. Il semble plus cohérent de réaliser cette étape dans ce sens (pratique vers théorie), plutôt que de faire tous les calculs théoriques pour se rendre compte que la mise en place du périmètre n’est pas réalisable sur le terrain (théorie vers pratique). L’évaluation des risques de pollution est très importante pour déterminer les périmètres de protection et les servitudes et aussi pour vérifier les taux de pollution mesurés par le laboratoire départemental. L’enquête des types de pratiques notamment agricoles et forestières doit être approfondie pour donner à l’hydrogéologue agréé le plus d’informations possibles pour son calcul de périmètre. Un plan des activités doit, en conséquence, être réalisé sur l’aire d’étude du captage qui est définie dans le cahier des charges de la procédure. Aussi, des révélés LIDAR à l’échelle nationale sont en cours de réalisation par l’IGN. Ils permettent de connaitre avec une précision de 10 cm, les caractéristiques du sol (altitude, type de sol). Cependant, durant la réalisation de ce mémoire, il n’y avait pas encore la possibilité d’exploiter une classification des points LIDAR. Cette solution n’a donc pas été envisagée mais pourrait l’être dans les mois à venir.
2.2.4 La connaissance et le descriptif des autres ouvrages
onnaissance et la description des réservoirs, stations de pompage et autres Les sources d’optimisation : la phase de recueil de données ouvrages d’eau, il n’y a pas d’éléments à ajouter si ce n’est de localiser précisément les ouvrages sur un plan cadastral de la même manière que pour les ouvrages de captage. Cette étape est importante seulement si l’ouvrage se trouve sur une propriété privée et dont l’emprise de l’ouvrage n’a pas été régularisée par une acquisition de la personne en charge de la gestion de l’eau potable.
2.2.5 Les travaux de protection
L’inventaire des travaux de protection n’est pas à réaliser dans le recueil de données. Il se fait à l’étape du dossier préliminaire. Cependant, c’est une étape cruciale de la procédure puisque les travaux doivent être autorisés par la DDT d’après le code de l’environnement en fonction de leurs importances et conséquences potentielles sur le milieu. Ils sont décrits avec précision pour éviter toutes ambiguïtés dans la procédure. Les intégrer dans un SIG base de données apporte un potentiel de suivi non négligeable.
2.2.6 Les bases de données existantes à utiliser
Plusieurs données sont déjà préconisées dans le cahier des charges mais d’autres peuvent venir les compléter pour faciliter le recueil de données. Plusieurs bases de données développées par des services de l’État sont disponibles en libre-service. Il est a possible de les utiliser dans les conditions fixées par le fournisseur de données. Liste de données complémentaires téléchargeables en open data Données Descriptions
C’est la base de données cartographique de référence, elle décrit entre autres l’ensemble des informations présentes sur le territoire métropolitain. Les objets sont classés par thèmes : administratif, bâti, BD CARTO hydrographie, lieux nommés, services et activités, transport, zone d’occupation du sol, zones règlementées. Les données sont au format vecteur shapefiles et sont fournies par L’Institut National de l’Information Géographique et Forestière (IGN-F). C’est une base de données des formations végétales forestières et naturelles qui présente la couverture du sol pour les éléments de plus de 22 500 m2 en s’appuyant sur les nomenclatures départementales. Les BD FORET données sont catégorisées par type de végétation (futaie, garrigue, friche, taillis, etc.). Les données sont au format vecteur shapefiles et sont fournies par L’Institut National de l’Information Géographique et Forestière (IGN-F). C’est une base de données qui contient une description vectorielle 3D des éléments du territoire et de ses infrastructures à une précision métrique. Les objets sont classés par thèmes de la même manière que BD TOPO ceux de la BD CARTO. La BD TOPO est basée sur la BD CARTO mais est tout de même plus détaillée et permet un plus grand nombre de traitement. Les données sont au format vecteur shapefiles et sont fournies par L’Institut National de l’Information Géographique et Baptiste Pignol
Les sources d’optimisation :
la
phase de recueil
de données PARCELLAIRE EXPRESS BD BSS BD LISA BD HARM LIDAR Forestière (IGN-F). C’est une base de données qui contient les informations relatives au parcellaire cadastrale. Elle utilise les fichiers PCI vecteur de la DGFiP. Les données sont au format vecteur shape et sont fournies par L’Institut National de l’Information Géographique et Forestière (IGN-F) et la DGFiP49. C’est une base de données qui contient les informations relatives sur les captages. Elle est mise à jour régulièrement par l’ARS et par le BRGM. Elle permet de savoir approximativement le positionnement de l’ouvrage, sont identifiant BSS, son appellation, sa date de création, etc. C’est une base de données des limites des systèmes aquifère qui est un référentiel cartographique du Système d’information sur l’eau. Elle propose un découpage en entité hydrogéologiques de l’ensemble du territoire métropolitain à l’échelle 1/50 00050. C’est une base de données produite par le BRGM au format vecteur shapefiles. Elle contient les données géologiques de la France à l’échelle 1/50 000. Les objets sont regroupés en plusieurs therme : contours géologiques, formations géologiques, etc. Nuage de points 3D en cours de réalisation sur la France entière. Cette donnée est très volumineuse. Permet une meilleure définition des bassins versants mais nécessite des traitements lourds et les logiciel open source ne permettent pas de réaliser ce traitement.
Tableau 4 : Liste des données complémentaires téléchargeables en open data
L’utilisation de ces données permet d’avoir des informations complètes et relativement à jour. Il faut tout de même vérifier que lors de leur utilisation, de nouvelles données à jours n’aient pas été publiées pour ne pas travailler sur d’anciennes données. Une solution est envisageable pour contourner cet aspect, c’est l’intégration des données par des flux de données. Ces flux de données sont les copies conformes des données téléchargeables mais sont cependant mis à jour continuellement. En effet, un flux de données à besoin d’une connexion internet pour être lu, ce qui permet d’avoir toujours la dernière version des données. Autre aspect important, ces données sont virtuelles et ne prennent ainsi pas de place sur la mémoire du serveur de l’entreprise. L’utilisation de flux pour obtenir des fonds cartographique SCAN25 et photographie aérienne est donc fortement recommandé. Cependant, l’interrogation des données par un logiciel SIG tel que Qgis prend beaucoup de temps, jusqu’à mettre en échec le système. Cela s’explique par une quantité de données importante pour laquelle il faut une connexion internet très fiable et un ordinateur capable de réaliser le traitement. La tâche est d’autant plus compliquée lorsque les données doivent être interrogées les unes par rapport aux autres.
Les sources d’optimisation : la phase de recueil de données 2.2.7 La gestion des données par SIG
Les données précédemment exposées sont exploitables sur un logiciel SIG. L’utilisation de QGIS, par exemple pour la lecture graphique des données, semble le plus approprié. Des données produites ou collectées par le bureau d’étude, qui ne sont pas présentes dans les bases de données téléchargées peuvent aussi être ajoutées. peut être le cas de données de protection des captages ou encore de données sur les ouvrages d’eau potable. Aussi, une base de données telle que PostgreSQL peut être utiliser à partir du client PGadmin et Qgis. 2.3 Élaboration d’un Système d’Information Géographique, effets attendus
L’élaboration d’un SIG permet dans un premier temps de recueillir des données et de les mettre en relation les unes avec les autres. C’est ce qu’on appelle une base de données relationnelle. C’est une méthode qui permet d’avoir dans un seul est même « répertoire » un ensemble de données dans lesquelles on peut piocher et ajouter des informations. Dans un second temps, les procédures de régularisation des captages sont relativement nombreuse et demandent une gymnastique d’esprit pour passer d’une procédure à une autre sans mélanger les données. Avec le SIG, toutes les données sont localisées dans l’espace. Il suffit donc de se déplacer sur un plan pour avoir les bonnes données. Enfin, la saisie de données peut aussi bien se faire au bureau que sur le terrain. Ainsi, les données non pas besoin d’être reportées manuellement. Elles sont automatiquement mises à jour dans la base de données.
2.3.1 Définition des outils à disposition pour la gestion de SIG
Figure 18 : Logo Qgis (source : qgis.org)
Qgis est un logiciel de SIG (Système d’Information Géographique) libre et gratuit disponible depuis 2002 qui a pris une grande ampleur à partir de 2010. Il permet la création, l’édition et la visualisation d’informations géographiques. L’utilisation de ce logiciel est appropriée pour une gamme importante de secteur : • • • • • • • • Urbanisme ; Aménagement du territoire ; Environnement ; VRD (Voirie et Réseaux Divers) ; Foncier ; Transport ; Distribution ; Bureaux d’études : Avec l’utilisation de QGIS dans les procédures de protection des captages, on peut par exemple avoir en un seul clic la composition, le nombre, les profondeurs, les matériaux, les Les sources d’optimisation : la phase de recueil de données longueurs, le lieu, le positionnement des ouvrages d’eau potable et encore de zonage règlementaire par exemple. On peut en sortir des cartes et des tableaux récapitulatifs sans prendre le risque d’oublier des éléments si la saisi est réalisé rigoureusement. Son caractère libre et gratuit fait qu’il est utilisé par un grand nombre d’acteurs PostgreSQL est un puissant système de gestion de base de données. Pour les données géographiques, il faut utiliser son extension PostGis. Du fait de sa bibliothèque, il permet de réaliser une multitude d’actions de traitement de données qui sont stockées avec sécurité. Lié à Qgis, l’exploitation et la visualisation des données sont facilités51. Le point le plus important, c’est la possibilité de partager les données produites à d’autres utilisateurs à qui on peut donner différentes autorisations d’accès, soit en lecture simple, soit en éditeur de donnée par exemple. Cela permet aussi de pouvoir travailler sur une seule et même base de données qui sera continuellement mise à jour. Figure 19 : Logo PostgreSQL (source : postgresql.org) Figure 20 : Logo Microsoft Excel (source : microsoft.com) Figure 21 : Logo de Qfield (source : Qfield.org)
Excel est un logiciel de tableur. Il est utilisé pour créer et gérer des feuilles de calcul contenant des données numériques et textuelle. C’est la manière la plus simple de recueillir des données pour les noninitiés aux bases de données telle que PostgreSQL. Les tableurs Excel peuvent ensuite être insérés sur PostgreSQL pour en faire une base de données relationnelle. Des alternatives libres et gratuites peuvent remplacer ce logiciel. C’est le cas notamment de Libre office Calc ou de Google Sheet Qfield est une application androïd qui a été développée pour Qgis. C’est un carnet de terrain qui permet de visualiser et d’éditer des données d’un projet Qgis directement sur smartphone. De cette manière, plus besoin de prendre un papier sur le terrain et de retranscrire les données dans un tableur. Directement sur Qgis, il suffit de transférer les données de l’application vers la base de données Postgre intégrée dans Qgis. La limite est que l’on ne peut pas connecter Qfield à Postgres directement!
2.3.2
Les effets attendus Premièrement, les deux logiciels, Qgis et PGadmin, permettent par le biais du système de base de données Postgres, d’avoir un seul est même espace de travail pour toute la durée (2023, ). Les sources d’optimisation : la phase de recueil de données de la procédure à l’exception des plans topographique et de projets, pour les travaux à réaliser sur les captages, qui sont plus facile à réaliser sur un autre logiciel de DAO tel qu’Autocad par exemple qui est dédié à cette tâche. Pour aller encore plus loin, il y a ainsi un seul espace de travail pour toutes les procédures traitées par le bureau d’étude. Cependant, ce système n’est logiquement pas rétroactif pour les dossiers déjà réalisés sauf mise à jour contraire. D’autres avantages apparaissent tels que la possibilité de superposer les informations par relation géographique et par identifiant. La création de cartes/plans est aussi facilitée avec une programmation automatique de l’intégration des objets désirés. La seule tâche qui doit être réalisée est la saisie de la table attributaire de la donnée préalablement géoréférencée dans Qgis. Qgis permet la gestion des présentations (cartes) par atlas. Il permet de positionner la vue du plan en fonction des entités et attributs demandés. Cette méthode est donc utilisée pour la réalisation des plans de situations des réseaux AEP d’une commune, des plans des lieux et d’accès de captage, des plans d’inventaire de risques de pollution, des plans de zonages de documents d’urbanisme, des plans de zonages de règlementations environnemental, des plans des périmètres de protection de captages, des plans parcellaires autour des captages. Les données autres que celles produites par le bureau d’études, sont facilement accessibles sans avoir besoins de demander les données à un service tel que la DDT, l’ARS, le SATEP ou même la mairie. Cela permet d’enlever de la procédure le temps de réponse de chaque acteur et ainsi être plus rapide dans l’obtention de résultat. Dans un autre temps, pour les données qui ne sont accessibles uniquement que par des visites de terrain, avec l’application Qfield, il est possible de saisir les données préalablement préparées dans la base de données SIG. Il suffit ainsi de remplir le formulaire de requête qui est identique dans Qgis et est mis à jour automatiquement puisque les données saisies dans Qfield sont enregistrées sur un cloud en lien avec Qgis. Toutes les données dans Qgis sont aussi consultables avec Qfield. Ainsi, lors des réunions de terrain, si une donnée est manquante pour la compréhension de quelque chose, ou qu’elle est demandée par une personne, il est de fait possible de lui répondre.
2.4 Conclusion
La mise en place d’un SIG avec l’ensemble des logiciels et applications qui peuvent y être associées permet de répondre rapidement aux attentes des différents acteurs sans mélanger les données entre l’ensemble des chantiers, d’autant plus lorsqu’ils se déroulent en même temps. Nous allons voir par la suite les résultats engendrés par cette optimisation de la procédure de recueil de données.
Partie 3 MISE EN APPLICATION DE LA MÉTHODOLOGIE DE L’OPTIMISATION DU RECUEIL DE DONNÉES
Ville principale Figure 22 : Plan de situation des communes d'études pour l'optimisation du recueil de données
La vérification et la mise en application de la méthodologie d’optimisation du recueil de données ont été réalisées majoritairement sur deux communes du département de la Lozère. Un recueil de données a donc été réalisé sur la commune de SAINT-ANDRE-DE-L’ANCIZE et le second sur la commune de VIALAS. Deux captages sont ainsi entrés dans la procédure. Un nouveau en 2022 sur SAINT-ANDRE-DE-L’ANCIZE nommé captage d’Ayguelève et un autre construit également en 2022 sur VIALAS nommé captage de Milette. Ils ont chacun pour but de conforter l’alimentation en eau des populations des UDI concernés. La totalité des axes d'amélioration n'a pas pu être entièrement validé, seules les modifications internes au sein du bureau d'étude, relatives à sa méthodologie de travail, ont pu être effectivement mises en œuvre. Les autres pistes d'amélioration, destinées à être approuvées par les organismes instructeurs tels que l’ARS et la DDT, ne bénéficient pas encore, à l'heure de la rédaction de ce mémoire, d'une validation formelle.
3.1 Mise en place du SIG
Dans un premier temps, pour alimenter la base de données, il faut regarder quelles sont les données disponibles en libre-service qui sont fournies par les services de l’état et regarder leur validité. Toutes les données ne sont pas nécessaires. Il est important de trier les Mise en application de la méthodologie de l’optimisation du recueil de données données utiles de celles qui sont « parasites ». Une fois réalisé, il faut ajouter les données acquises par le bureau d’étude. Ces dernières résultent d’une mise en relation des données et/ou d’informations et observations de terrain. Pour rappel, un SIG fonctionne avec trois catégories de géométries : les ponctuelles, les linéaires et les surfaciques. Une entité qui est cartographiable linéairement ne sera ainsi pas dans la même couche qu’une entité ponctuelle. Plusieurs couches sont donc créées en fonction de l’objet à représenter. Elles ont leur propre table attributaire qui est interrogeable à partir d’une autre couche par méthode de localisation. C’est le principe de la base de données relationnelles.
3.1.1 Création de la base de données
Pour pouvoir rendre utilisable les données recueillies, il faut pouvoir les utiliser dans base de données SIG. Les principales données à créer sont celles qui concernent les caractéristiques des captages. Des éléments déjà existants, demandés dans la procédure peuvent directement être intégrés dans la base de données. Nous allons nous focaliser sur un seul captage pour rendre la procédure plus compréhensible. Premièrement, le point le plus important est la localisation du captage. Par convention française et pour question de précision, les coordonnées doivent être connues en Lambert 93 ou en Lambert conique conforme 9 zones. En Lozère, on utilise la 3ème zone soit la projection CC44. Dans un premier temps de la procédure, le positionnement du captage se fait par ortho photo ou par positionnement cadastral, mais lors de la visite de terrain, il est important de réaliser un relevé topographique des lieux et ainsi prendre précisément la position du captage. En effet cela permet de définir dans quelle parcelle se trouve le captage, notamment si la source n’appartient pas à la personne en charge de la distribution de l’eau. Ainsi, les bons propriétaires pourront être notifiés au niveau de l’étape de l’enquête publique. Deuxièmement, les caractéristiques du captage, déjà demandées dans la procédure initiale, peuvent être intégrées dans la base de données. Ainsi, l’état de conservation du captage, les détails de construction, le débit de la source à l’étiage, le volume de prélèvement, et l’environnement du captage peuvent être relevés durant une visite de terrain. Plusieurs entités peuvent être amenées à intervenir pour collecter des informations à des dates différentes. C’est le cas notamment des débits
Figure 23 : Bac de décantation d'un captage avec d’étiage. Pour
avoir des données fiables
,
il serait deux arrivées d'eau drainée judicieux d’installer des compteurs en production (au niveau de l’adduction du captage) en plus de ceux en distribution (au niveau des réservoirs
).
Tout ce qui est nom d’usage, identifiants BSS, etc. sont récupérables dans la banque de données mise à disposition par le Baptiste Pignol 45 Mise en application de la méthodologie de l’optimisation du recueil de données BRGM.
Figure 24 : Photo d'un réservoir
Le positionnement des réservoirs sur plan doit aussi être réalisé. Si l’emprise du réservoir est propriété de la personne en charge de la distribution de l’eau potable, il n’y a pas besoins de procéder à un relevé topographique de l’ouvrage. Dans le cas contraire, un relevé précis de l’emprise doit être fait pour ajouter le périmètre à l’enquête publique et demander une estimation par les services des domaines. Ensuite, dans le SIG, Toutes les caractéristiques de construction du réservoir sont intégrées au SIG et ainsi voir les éventuels travaux à réaliser pour mettre le réservoir en conformité avec les normes sanitaire entre autres. Les caractéristiques sont l’état général de l’ouvrage, la présence et l’état du système d’aération, de la crépine, d’un robinet flotteur, etc. D’autres ouvrages annexes peuvent apparaitre dans le réseau AEP. Ce peut être des brises charge, des chambres de répartition, des stations de traitement, des stations de pompages, etc. De la même manière que les réservoirs, leurs caractéristiques et localisation doivent être mentionnées dans le SIG. Ce sont donc les ouvrages principaux utiles au recueil de données qui permettent notamment de connaitre le trajet de l’adduction et de la distribution de l’eau.
Figure 25 : Photo d'un collecteur d'eau potable
Pour le réseau d’eau, il faut positionner les réseaux d’adduction, de distribution, les drains de captage ainsi que les canalisations de trop plein. De la même manière que pour les ouvrages de captages, ils doivent être référencés sous le système de projection Lambert 93 ou Lambert 9 zones. Cependant, mise à part pour les drains qui doivent être localisés précisément (de l’ordre du décimètre) avec leur profondeur sous le terrain naturel, les autres réseaux doivent être localisés
Figure 26 : Réfection des drains d'un captage, globalement de sorte à comprendre le trajet de positionnement et profondeur l’eau. Un calage par ortho photo ou sur plan IGN suffit à réaliser cette tâche. L’état des réseaux est à intégrer dans le SIG. Cela concerne notamment les éventuelles fuites détectées. En découle ainsi le rendement du réseau qui est demandé dans le cahier des charges de la procédure. Le diamètre des canalisations et leur type de matériaux (PVC, PEHD, fonte, etc.) sont Mise en application de la méthodologie de l’optimisation du recueil de données aussi importants à mentionner. La longueur de chaque canalisation, leur dénivelé, leur localisation et celle des autres ouvrages étant connus, il peut ainsi se calculer la capacité maximale que peut prendre en charge la conduite d’adduction. C’est un de la procédure qui importe au service de la police de l’eau qui contrôle la capacité maximale prélevé dans le milieu naturel pour la redistribuer à la population. Le surplus de l’eau captée qui n’est pas pris en charge par le réseau d’adduction, part au trop plein du captage, qui autant que faire se peut, retourne au niveau du milieu naturel de l’environnement du captage. Une fois le réseau AEP localisé et décrit, plusieurs catégories de zonages peuvent être saisis dans le SIG. Premièrement, il a été intégré le périmètre de l’Unité de Distribution Indépendante. Le périmètre est déjà repris schématiquement dans un synoptique, mais le fait de le réaliser plus précisément sur un plan permet de mieux appréhender le fonctionnement du réseau. Dans la table attributaire de la couche « UDI », on y retrouve l’ensemble des captages publiques accompagnés des réservoirs et des ouvrages annexes. L’ensemble des villes, villages et hameaux raccordés au réseau public dans cette UDI y sont également référencés. Cela a été automatisé grâce à un système de sélection par localisation programmé en langage SQL. Il est aussi possible de connaitre le nombre de bâtiments résidentiels, industriels, agricoles, etc. présents dans chaque zone d’habitation ou industrielle et ainsi d’en estimer des besoins théoriques en eau. Pour déterminer les périmètres de travail pour le recueil de données, il faut avant tout déterminer l’Aire d’Alimentation du Captage (AAC), qui s’étend généralement jusqu’à 500 mètres en amont du captage. La configuration de l’AAC peut changer en fonction des caractéristiques des captages (si c’est un forage, ou un drainage, etc.) ou en fonction de la typologie et topographie du terrain. Mais dans ce cas, l’avis de l’hydrogéologue agréé est nécessaire.
Figure 27 : Aire d'alimentation d'un captage (source : eau du bassins caennais)
En ce qui concerne l’inventaire des risques de pollution, une enquête agricole doit être réalisée. Elle est mentionnée dans le cahier des charges de la procédure de protection. Cependant, elle n’est que très peu ou pas réalisée car elle n’entre pas dans les missions actuelles du bureau d’étude et les services en charge de cette mission ne la réalisent pas. Une telle enquête permet de trouver les éventuelles sources de contaminations mises en évidence dans les résultats de contrôles sanitaires. Ainsi, les types d’activités, agricoles forestières et industrielles recensées à l’échelle parcellaire sont intégrées dans le SIG. Un lien peut être établi entre les écoulements d’eau de surface ou souterraines, afin de retrouver l’origine de la pollution. Des travaux de déviation des eaux potentiellement polluées pourront être réalisés à la suite de l’analyse des activités parcellaires. Pour un aspect plus visuel, les données sont catégorisées. Mise en application de la méthodologie de l’optimisation du recueil de données
Figure 28 : Source de pollution des eaux de captage (source : eau du bassins caennais)
3.1.2 Utilisation de données existantes
Plusieurs données SIG peuvent être utilisées dans le recueil de données (cf. 2.2.6 Les bases de données existantes à utiliser). On peut notamment obtenir toutes les zones règlementées. Cela comprend le zonage des documents d’urbanisme tels que les PLU et les cartes communales. Des zonages liés à l’environnement sont aussi disponibles. Comme par exemple les zones de protection du Parc National des Cévennes et les zones d’inventaires telles que les ZNIEFF ou les sites Natura 2000. Les zones de protection apportent des limites dans les types de construction, méthodes et volume de prélèvement. Les zones d’inventaires apportent des informations sur l’environnement du captage. Ensuite, on peut retrouver toutes les données produites par l’IGN. Tous les bâtiments sont vectorisés et catégorisés ce qui permet de calculer les besoins en eau dans un secteur donné. Le type de végétation est aussi disponible ainsi que les routes, chemins, sentiers, cours d’eau, services publics. Les données administratives sont aussi accessibles.
3.2 Les résultats obtenus, limites et avantages
À la suite de la création de la base de données dans un SIG, plusieurs rendus ont pu être réalisés tels que des plans et d’autres ont juste une valeur informative pour des relations de calcul. Toutefois, des limites ont été observées malgré les nombreux avantages disponibles. 3.2.1 Les plans réalisables
Dans la procédure de mise en conformité des captages d’eau potables, plusieurs livrables graphiques sont attendus. Pour réaliser cette mission, le bureau d’études est libre Mise en application de la méthodologie de l’optimisation du recueil de données d’utiliser les ressources qui lui sembles pertinentes à partir du moment que le cahier des charges est respecté. Ainsi, sur l’ensemble des pièces graphiques qui peuvent être optimisées, nous retrouvons : • • • • • Le plan de situation du réseau AEP d’une commune ; Le plan des lieux et d’accès ; Les plans des zones règlementées et d’inventaires ; Le plan des risques de pollution ; Les plans des périmètres de protection ; Le plan de situation des servitudes de PPR ; Le plan parcellaire pour l’état parcellaire. Avant l’application de l’optimisation, les plans étaient réalisés avec le logiciel de DAO Autocad. Il est très performant dans la conception de plans de précisions mais n’est pas adapté à tous les plans précédemment cités. Le logiciel de SIG Qgis pour ce type de rendu est bien plus adapté et permet aussi d’alimenter une base de données qui regroupe l’ensemble des procédures de mise en conformité des captages. En effet, Qgis permet d’ajouter des informations à une entité créé et donc d’avoir une « encyclopédie » consultable pour réaliser des traitements de données par exemple. Il est aussi dorénavant possible de visualiser plusieurs « dossier » en même temps. Les plans réalisés ne représentent pas l’ensemble des informations qui peuvent être mises à disposition par la base de données. Un tri dans l’affichage doit être réalisé pour ne pas surcharger les plans d’informations et ainsi entrainer des difficultés de compréhension pour les personnes non averties. Nb : les plans suivants en miniature sont repris en taille réelle en annexe
3.2.1.1 Plan de situation
Le plan de situation est le premier plan graphique à réaliser. Il permet de comprendre le fonctionnement de la distribution d’eau. Il est ainsi possible d’en déterminer les UDI et de visualiser globalement les villes, villages et hameaux desservis. Cette étape permet de commencer à rassembler les principales données sur les captages. Ainsi, l’état des captages dont la Figure 29 : Plan de situation d’un réseau AEP procédure est entamée et les travaux de mise en conformité viennent alimenter la table attributaire du captage. Graphiquement, on y retrouve les réseaux principaux de distribution et les réseaux d’adduction, qui ont également leur table attributaire. Les informations telles que leur longueur, diamètre et type de matériaux y sont présentes. Elles permettent de pouvoir Mise en application de la méthodologie de l’optimisation du recueil de données calculer la capacité maximale de prise en charge du réseau. Les informations de positionnement des ouvrages de captages, de réservoirs et annexes sont repris dans un tableau. Une légende graphique a aussi été ajoutée comme pour toutes les autres pièces graphiques.
3.2.1.2 Plan des lieux et d’accès
Le plan des lieux et d’accès est important pour informer la population et les potentiels intervenants qui sont habilités à intervenir sur le captage. Il n’apporte pas d’informations particulières pour déterminer des périmètres de protection. Il n’est produit uniquement que pour les captages dont la procédure de mise en conformité est lancée.
Figure 30 : Plan des lieux et d'accès d'un captage
Il y apparait les cadastrales, un détail des bâtiments présents
et les différentes routes d’accès. limite
s
Les informations qui doivent le plus ressortir sont le type de routes qui y sont présentes. Il est important de savoir si l’accès est une route, un chemin, un sentier et notamment s’il est accessible avec des véhicules motorisés.
3.2.1.3 Plan des zones règlementée et d’inventaires
Figure 32 : Plan de périmètre du PNC par rapport au réseau AEP d'une commune Figure 32 : Plan des ZNIEFF et zone Natura 2000 par rapport au réseau AEP d'un captage
Il est très important en ce qui concerne les travaux qui doivent être réalisés sur un captage. En effet, cela concerne la procédure au titre du code de l’environnement, lorsqu’il y Mise en application de la méthodologie de l’optimisation du recueil de données a la création d’un nouveau captage ou une réfection. Le volume de prélèvement annuel d’eau dans le milieu naturel peut dépendre des zonages règlementaires ou des zonages d’inventaires ou d’objectif. Ainsi, il apparait dans les documents graphiques et si leur emprise le suggère, les périmètres du Parc National des Cévennes, les ZNIEFF, les Zones de Protection Spéciale et les Zones Spéciales de Conservation qui sont affilées aux zones Natura 2000. Les ZNIEFF n’ont pas d’effets règlementaires. Néanmoins, ce sont des inventaires qui peuvent mentionner la présence d’espèces protégées autour d’un captage. Les éventuels travaux doivent ainsi être adaptés en fonction.
3.2.1.4 Plan des risques de pollution
C’est le plan le plus important dans une procédure au titre du code de la santé. Il permet de vérifier les taux de contamination bactériologique et chimique mis en évidence lors des contrôles sanitaires. Il permet surtout d’adapter le PPR en fonction des éventuelles sources de pollution.
| 28,370
|
3d9f59fa39ed372c3ca85cf0a9eded72_13
|
French-Science-Pile
|
Open Science
|
Various open science
| 1,907
|
L'Afrique centrale française
|
None
|
French
|
Spoken
| 7,218
| 12,819
|
Le sol du pays des Vidris est ordinairement ferrugineux, il est
sablonneux aux environs de Korou. Dans la zone de Kakouma, Basso,
il est caillouteux, avec
minerai de fer. C’est à Basso
que GRECE a
retrouvé la tombe d’un Européen de l’expédition De La KérnucLe. Les
Vidris cultivent le riz, mais le manioc forme le fond de leur alimenta-
tion. Ils appellent guita la houe employée pour la culture. La liane à
caoutchouc et l'arbre à gomme existent au N. du pays. Ils coagulent le
caoutchouc en recevant le latex sur leur corps, c’est la sueur qui joue
le rôle de coagulant. On trouve dans ce pays un caféier qui atteint
quelques mètres de hauteur. Lebambouet le Borassus existent aussi. On
cultive encore le tabac, le bananier,
le dazo, le Ficus lili. Le bananier
n'existe plus au N. de la Dorou (affluent du Bari?). Le chien des Vidris
n’aboie pas. On trouve dans le pays des moutons importés par les
Ouadaïens et quelques chevaux. Les Vidris font du commerce avec les
traitants musulmans qui vont chercher des captifs aux sultanats où ils
séjournent en hivernage et qui retournent en été dans leur pays avec
le produit des razzias qu'ils ont échangé contre de l’étain (mbassa),
du sel, de la poudre, des capsules.
Dem-Ziber était la résidence habituelle du Moudir. En exécution
des ordres reçus de M. Liorarp, M. l'interprète Grecx pénétra du
bassin du Mbomou, dans le bassin du Nil et planta le pavillon français
à Dem-Ziber, le 17 avril 1897 (1). Les derviches, quelques années plus
tôt, avaient semé la dévastation dans la contrée, les puits étaient
transformés en véritables ossuaires.
M. Grecx trouva une population composée de Niogolgolés (2)
commandés par Nacer Andel et de Forogués (3) commandés par
Moussa-Ahmed.
(1) Tout le monde à Ndellé croit Ziber Pacha mort depuis longtemps et
on a cru que je plaisantais quand j'ai dit qu'il vivait encore au Caire.
(2) Les Niogolgolés ont pour capitale Liffi dans le Talganonna, ville principale Beled. À l'E. les Niogolgolés sont séparés des Djengués par le Bahr el
Ona ou Bahr el Arab.
(3) Les Forogués sont originaires du pied du Djebel Marra ; aujourd'hui
le Dar Diga ou Dar Zandé est leur principal pays. Il est traversé par la rivière
Borou. Ils sont séparés des Niogolsolés par le Mangayat.
234
L'AFRIQUE
CENTRALE
FRANÇAISE
Traduction de la pièce arabe de la page 155, faite par M. GauDEFROY DE MONBYNES.
De sa Seigneurie le sultan Senoussi à sa Seigneurie notre commandant le
capitaine Youssef; de nous à toi, salut excellent et quantité de politesses et de
courtoisies. L'objet de la lettre que je adresse, c’est que tu nous as écrit une
lettre que nous avons lue, nous avons compris ce qu’elle contenait au sujet de la
grande fête. Nous n’irons point t'y joindre ;nous ne serons point tes compagnons
pour manger, boire et nous divertir. Qu’Allah te bénisse dix dix fois (Merci.).
Tu es notre commandant mais ces nuits-ci, moi, j'ai été malade, à peu près
trois jours, je ne me suis levé du lit que pour la fête d'aujourd'hui. Mais tous les
officiers iront vers toi, entre autresel Hadj Teqqo, el Had) Mohammed, Abou
Azz (?); beaucoup de gens iront vers toi ; voilà ce que nous avions à te faire
savoir. Salut.
Nous t’informons encore que les soldats se rendront auprès de toi après
la prière du soir.
CHAPITRE
LE
I. Hydrographie,
généralités. —
MOYEN-CHARI
IT. Le Bahr el Abiod (Bamingui) et le Chari. —
III. Excursion
ÏJ. —
à l'O. du Chari.
HYDROGRAPHIE,
Il existe, en Afrique
X
centrale,
GÉNÉRALITÉS
entre
9° et 10° de lat. S., une
immense plaine qui s'étend des marais de Toubouri à la lagune du
Mamoun sur plus de 6° de longitude. Lorsque les rivières, originaires
des plateaux du S., arrivent dans cette dépression, elles serpentent à
travers la plaine, n'ayant plus qu’une pente insensible. Leur lit est
souvent incertain, le courant se frayant un chemin variable à travers les
alluvions les moins résistantes. Les apports de sable en des crues annuelles comblent peu à peu les lits déjà existants, et l’eau est obligée
de s’écouler par ailleurs. De là ces lits nombreux où l’eau ne coule
plus, même à la saison des pluies. Les uns sont remplis seulement de
sable meuble et soulevé par le vent en forme de dunes ; les autres se
transforment en marais et se couvrent de bourgou.
Toutes les grandes rivières, Bamingui (Abiod), Boungoul, Babr el
Azreg et Bahr Sara, ont conservé néanmoins un lit principal, généralement très ensablé, mais qui, en temps ordinaire, suffit à l’écoulement de l’eau, le débit de ces rivières ayant considérablement diminué.
Il n’est pas rare d’observer, sur le Chari même, les berges actuelles
écartées de 200 ou 300 mètres limitant un lit encombré
de sables,
alors que sur les deux rives on aperçoit bien, au-delà du thalweg
actuel, d'anciennes berges souvent distantes de plus de deux kilomètres. Sans doute les années de très hautes crues, le fleuve peut
encore reprendre momentanément
son ancien lit, les apports récents
236
L’'AFRIQUE
CENTRALE
FRANÇAISE
d’alluvions déposés près des anciennes rives l’indiquent. Mais ce phénomèêne ne se produit qu’à des intervalles éloignés. Dans les crues ordinaires, lorsque le lit actuel ne peut plus suffire, l’eau se déverse dans
les innombrables chenaux latéraux qui, tantôt rejoignent le fleuve en
aval, tantôt vont déboucher dans des mares ou encore pénètrent fort
loin dans les terres. On ne saurait considérer ces bras comme des
canaux puisqu'ils sont à sec presque constamment, parfois plusieurs
années de suite ; aux hivernages ordinaires, leur lit n’est en somme
qu’un chapelet de mares dont l’eau provient, soit des pluies tombées
dans les régions traversées par. ces chenaux, soit des infiltrations des
rivières. Ce sont, en somme, des ouadi
dont le lit a été creusé à une
époque où les crues avaient une importance infiniment plus considérable qu'aujourd'hui. Souvent même, le lit de ces chenaux devient
tout à fait incertain et ce n’est plus dans une dépression rectiligne
qu’afflue l’eau, mais elle s'étend dans de vastes plaines qu’elle transforme en marécages.
Cette grande plaine est sillonnée aussi de cours d’eau d’aspect particulier nommés Mindja ou Minia. I1n’y a aucun doute pour moi que
les Minia sont souvent des rivières ensablées ou plutôt des canaux
dont le lit a été comblé par la terre et les débris végétaux, l’eau ayant
cessé d’y couler depuis longtemps, même d’une façon intermittente.
D'autres Minia ont pu être des diverticules allant d’une rivière à
l’autre. C’est le cas de la Minia Mbanga qui réunissait vraisemblablement le Boungoul (Aouk) au Bahr Salamat, peut-être aussi du Babr
Nam ou Ba Bo qui aurait réuni le Logone au Bahr Sara. D’autres
enfin ont pu être les bras secondaires d’une rivière dont le courant :
principal s’est conservé tandis que les autres se sont taris par suite de
la diminution des pluies, et sont devenus, pour ainsi dire, des Rivières
fossiles. Les Minia, en effet, n’ont plus aucune valeur hydrographique.
Dans leur lit on trouve encore çà et là des flaques d’eau une partie
de l’année, parfois même des trous profonds où vivent des hippopotames. Puis le lit devient tout à fait indécis ; il se rétrécit jusqu’à une
largeur très inférieure à celle qu’il a en aval ou même en amont. Parfois,
à un lit ayant des berges verticales de 2 mètres de haut, succède plus
loin un lit qui n’est plus marqué que par une large dépression herbeuse
profonde seulement de quelques décimètres, sur les bords de laquelle
on ne trouve plus de berges. Enfin il peut arriver que ces dépressions
même soient comblées totalement; le lit est de niveau avec la plaine
LE
MOYEN-CHARI
231
et quelquefois la végétation ligneuse s’établit sur l'emplacement. Plus
rien n'indique les traces d’une rivière. Les indigènes savent seulement
qu’en creusant des puits on trouve l’eau à une faible profondeur. Ainsi
au N. de 9°, presque toutes les routes de caravanes des Arabes ou les
sentiers de brousse des Kirdis suivent des traces de Minia ou bien les
coupent perpendiculairement de manière à les conduire d’un point d’eau
à un autre. Même lorsque la dépression d’une Minia n’est plus apparente, on peut ordinairement suivre son cours en repérant les touffes
de Nauclea inermis qui le jalonnent. Cet arbuste, dont les racines
doivent vivre toute l’année dans la terre humide, ne s’éloigne point
des dépressions. Malgré ce précieux indice, il est parfois difficile de
retrouver le tracé de l’ancienne rivière. La pente n’existe pour ainsi
dire plus dans le lit des Minia ; parfois même après une très grande
pluie le trop plein d’une mare du lit remonte l'ancien thalweg. Le plus
souvent ce trop plein se répand sur les bas-fonds avoisinants qui se
transforment alors en marais étendus.
Une multitude de culs-de-sac, parfois plus profonds que la Minia
même, y aboutit. Ce sont, ou les trous du lit primitif, ou même des bras
- secondaires. Enfin il arrive que la Minia débouche dans un Firki c’està-dire dans une grande plaine herbeuse sans arbres, transformée en
marais après chaque pluie, l'écoulement de l’eau ne s’effectuant pas.
Toutes ces causes font que la plupart des Minia ne sont point considérées
comme des lits continus par les indigènes mais comme des fossés sans
issues. Demandez à un noir où va et d’où vient la Minia qu'il vous
montre : neuf fois sur dix, il répondra qu’elle s’arrête à une faible distance en aval et en amont. Sur les relevés d’itinéraires faits par les
officiers du territoire du Chari, la plupart des Minia sont regardées
comme des communications entre mares. D’autres fois, les indigènes
font des réponses paradoxales : un jour ils vous diront que la Minia
Lomé s’abouche avec le lac Iro, un autre jour avec le Ba Koulfé ou
même avec le Bahr Chari.
En cela d’ailleurs les indigènes n’ont point tort. Il n’y a plus de
doute pour moi que toute la plaine du Chari, depuis 9 N. jusqu’à la
latitude du Tchad et depuis probablement les marais de Toubouri
jusqu'au Mamoun, a formé une immense nappe lacustre à l’époque où
l'érosion des massifs montagneux de l'E. et l'O. du Chari comblait
progressivement la dépression centrale du continent noir. Les sables
du Sahara lui-même seraient en grande partie constitués par les apports
238
L’'AFRIQUE
CENTRALE
FRANÇAISE
des fleuves tropicaux : Sénégal, Niger, Benoué, Chari, Nil, qui char-
riaient le limon et les sables arrachés aux montagnes situées entre 2°
et 8 N. La plaine du Chari central aurait été comblée à une époque
relativement récente. Le remplissage s’achève encore de nos jours.
Chaque année de petits canaux latéraux à la rivière de Fort-Archambault sont ensablés ou remplis par les débris de bourgou. I] est vrai
qu’à chaque crue exceptionnelle de nouveaux fossés s’ouvrent à travers
les sables encore meubles des berges. En de nombreux endroits, ces
sables sont consolidés et forment une muraille que l’eau rompt plus difficilement. Comme le remplissage s’est fait irrégulièrement et par apports
inégaux, la plaine est loin d’être nivelée. Il reste ici et là des fossés
profonds qui sont les lits des rivières actuelles permanentes, des fossés
moins profonds qui sont devenus inutiles, en partie remplis. Enfin çà et
là de grands marais subsistent, s’anastomosant entre eux ou avec les
rivières permanentes et les Minia
dépressions
forment
un
réseau
voisines. Ces trois catégories de
très
complexe,
entre
les mailles
irrégulières duquel sont compris les monticules où l’eau n’a point
séjourné, mais a ruisselé. Ces terrains surélevés sont de deux sortes:
1° des rochers granitiques qui se dressent en gigantesques monolithes
à travers la plaine et sont ordinairement entourés d’une ceinture de
blocs éboulés (1); 2° des mamelons de faible relief, constitués par une
arène granitique, et qui entourent les roches en place sur un périmètre
de plusieurs kilomètres.
Appartiennent encore
à cette catégorie des
ondulations diversement orientées, hautes de 20 à 60 mètres au-dessus
du niveau des marais, larges de 15 à 20 kilomètres, qui s'étendent
souvent de chaque côté des grandes Minia. Le limon rouge (terre sablonneuse rouge) qui recouvre ces plateaux est très propre à la culture (2);
aussi tous les villages saras sont-ils installés sur ce terrain. Les coteaux
sablonneux sont perméables à l’eau qu’on est obligé d'aller chercher
dans des puits profonds comme chez les Toummoks,
les Saras Mban-
gas, etc. L'eau des pluies est immédiatement absorbée par le sol ou bien
elle ruisselle pendant une heure ou deux le long de petits ravins, larges
de quelques mètres à peine et profondément entaillés. Le reste du
(1) Parfois, comme à Kérem, ces roches sont situées au bord même d’un
ancien grand fleuve. Le courant a poli la pierre, creusé des godets et fait disparaître toutes les saillies qu'il a arrondies.
(2) Il est cependant parfois recouvert de sables ferrugineux stériles.
LE
MOYEN-CHARI
239
temps ces ravins sont complètement asséchés et l’on pourrait creuser
dans leur lit des puits à une grande profondeur sans rencontrer d’eau,
tandis que dans le lit des Minia il en subsiste ordinairement.
Valeur agricole de la plaine basse. — C'est une opinion fort
répandue en Europe que les plaines de tous les grands fleuves tropicaux constituent un sol d’une fertilité remarquable. Ce n’est malheureusement souvent qu'une légende, et en ce qui concerne la vallée du
Chari en particulier, le sol est très souvent impropre à la culture. Ce
n’est tantôt qu'un sable absolument stérile, tantôt une argile grisâtre,
bonne tout au plus à faire des poteries. Beaucoup de dépressions se
prêteraient sans doute à la culture du riz, mais cette céréale est abso-
lument inconnue tout le long du fleuve; c’est à nous de la vulgariser.
L'élevage trouverait aussi dans les grandes prairies de bourgou et
dans les steppes voisines du fleuve (dont la végétation se maintient
verte six mois de l’année) assez d'herbe pour les troupeaux. Mais, tant
qu'on n'aura pas de remède efficace contre les maladies à trypanosomes,
l'élevage demeurera dans une situation précaire. Il existe bien, çà et
là, dans la vallée des points fertiles, parfois même assez étendus. Ce
sont ces terrains que les tribus agricoles ont choisis pour l'emplacement
de leurs villages : les Rétous, les Ndoukas, les Niellims, les Kabas, les
Saras. Le Sorgho et le Penicillaria y donnent de superbes rendements,
enfin le coton y est cultivé, mais en très petite quantité.
II. —
LE
BAHR
EL
ABIOD
(BAMINGUI)
ET
LE
CHARI
La direction générale du Bahr el Abiod ou Bamingui depuis le
Bangoran jusqu'aux rochers des Niellims, est N. 30°. Sur ce parcours
(180 kilomètres), il n’y a point, comme
l'indique la carte PeLer, une
multitude de canaux anastomosés et presque égaux en importance :
partout on ne trouve qu’un seul grand chenal où l’on puisse à la
rigueur passer à la saison sèche, où l’eau coule toute l’année.
La saison sèche se prolonge de janvier à mai inclusivement,. A cette
époque, même sur le chenal principal, même avec des chalands plats,
la navigation est très pénible et celles de ces embarcations qui remontent
font à peine 10 kilomètres par jour. Ce serait vers la fin d'avril que
la hauteur des eaux atteindrait son maximum ; le 18 mai, le niveau a
monté de 0,20 environ, si l’on en juge par la ceinture de bancs de
240
L’'AFRIQUE
CENTRALE
FRANÇAISE
sable recouverts d’une végétation qui disparaît déjà sous Peau. Pourtant, le 10 août, NacuriGaz voyait encore à Maffaling par 10° 30’ environ, des îles sablonneuses peuplées d'hippopotames et de crocodiles (1).
En 1904, à Fort-Archambault,
l’eau monta de 1 mètre le 1° août à
plus de 5 mètres au milieu d'octobre. M. Bruez fait remarquer que la
décrue du Chari fut alors beaucoup plus lente que celle du Logoneà
Laï (2). Le premier, en effet, est alimenté par des rivières d’origines plus
diverses, ne recevant pas à la même époque le maximum de précipitation; aussi la crue dure-t-elle plus longtemps.
En saison sèche, le chenal principal est large de 200 à 1.200 mètres.
L'eau n'occupe pas d’ailleurs tout ce lit au mois de mai. Si les îles y
sont rares, 1l n’en est pas de même des bancs de sable qui, plus ou
moins mobiles et souvent sans végétation, atteignent fréquemment
200 à 400 mètres de largeur. La pente est insensible et le courant,
partant, très faible. Voici les dimensions relevées en quelques points
de notre itinéraire : le 18 mai, j’ai passé à gué le Bamingui (Abiod)
un peu en aval du confluent du Bangoran, la partie occupée par les
eaux n'avait que 200 mètres de large, et la plus grande profondeur
observée n’était que de 0",60. Le 25 mai nous le traversons en aval de
Fort-Archambault entre le poste et le confluent du Ba Karé ou Boungoul, nous lui trouvons 300 mètres de large et 0",50 de profondeur.
Enfin, le 27 mai, nous passonsle Chari, un peu au-dessous du confluent
du Bahr Salamat. Le lit est occupé, en amont et en aval du gué, par
des rochers de granite, la largeur des eaux est de 150 mètres; la pro-
fondeur observée de 1",20, mais, en ce dernier point, il faut éviter des
gouffres creusés entre les roches qui doivent avoir une grande profondeur, si l’on en juge par les tourbillons. La profondeur est donc
loin d’être régulière : il n'est pas rare d’observer tout près d’un gué,
soit en amont, soit parfois en aval, des cavités où les hippopotames
prennent leurs ébats.
L’une des berges de ce lit mineur est abrupte, avec un à-pic de
3 à 7 mètres. J/autre est souvent à peine accusée ou bien, après un
rivage qui limite le cours d’eau à la saison sèche, un second distant de
(1) NacanGaz, IL, p. 738.
(2) G. Bruez, Renseignements coloniaux, 1905, p.372. Voir p. 373 le graphique
des crues du Logone et du Chari, qui ne résume, il est vrai, que les données de
quelques mois d'observations en 1903 et 1904.
LE
MOYEN-CHARI
241
800 à 2.000 mètres de la rive opposée forme le rebord du lit majeur
que l’eau ne remplit qu'aux très hautes crues. C’est en dedans de cette
fausse berge que sont situés des canaux secondaires, les culs-de-sac et
les mares dans lesquels l'eau reste en permanence. Dans toutes les dépressions, le niveau se maintient sensiblement le même que dans le cours
proprement dit, quand bien même ces dépressions ne lui seraient pas
reliées directement. Cette communication se fait par capillarité à travers
le sable, et, aux Niellims par exemple, les habitants se procurent de
F1G. 48, — Cultivateurs préparant le sol.
l’eau, en creusant des trous dans un banc de sable, à 2 kilomètres du
fleuve. Au-delà de ce lit majeur, les alluvions sablonneuses déposées par
le fleuve à une époque de plus fortes précipitations, s'étendent presque
partout sur une largeur de 8 à 10 kilomètres. Les sables soulevés par le
vent forment des dunes assez mal fixées par la végétation. Ils obstruent
souvent les nombreux canaux qui suivent le chenal le plus important
et qui, remplis par l’eauà l’hivernage, ressemblent
à ces bras de fleuve
qu'indique la carte Pecer. Mais le plus souvent ils se réduisent à des
culs-de-sacs et n’ont de communication avec le fleuve qu’en amont :
En aval, le chenal a été obstrué, soit par les dépôts de sable qui s’y
L. — 16
242
L'AFRIQUE
CENTRALE
FRANÇAISE
sont engouffrés, soit par l'accumulation du Bourgou dont les longs
chaumes genouillés remplissent, dès le mois de mai, le lit entier des
chenaux secondaires.
Les roches des bords ou du lit du fleuve. — Près du confluent
du Bangoran et de l’Abiod, M. Courrer a recueilli une roche à grain
très fin, de couleur blanche ou brune. À 6 ou 8 kilomètres du confluent, sur la rive droite, j'ai trouvé des falaises de roche ferrugi-
neuse dure et très caverneuse.
Elles s’élèvent de 6 à 8 mètres au-
dessus du niveau de l’eau, et les blocs éboulés dans le lit étaient
couverts de coquilles d’Elheria fixées seulement à la surface des blocs,
_mais n'entrant pas dans leur constitution. Plus loin on rencontre
encore le même type de roche ferrugineuse. A Fort-Archambault, il
y a quelques blocs ferrugineux dans le lit du fleuve. J’ai en outre constaté sa présence sur les bords d’un marigot se jetant dans le bras
principal du Boungoul (Aouk) et situé à 14 kilomètres environ de FortArchambault, en aval. En cet endroit, les tables ont une épaisseur de
3,60 environ, et reposent sur une couche sablonneuse compacte, formée
par l'agglutination de grains de quartz liés par une pâte assez solide.
À la hauteur des confluents du Bahr el Azreg et du Bahr Sara, et sur
un parcours d’une dizaine de kilomètres on observe sur la rive gauche
(à 5 ou 6 kilomètres du fleuve ?), un plateau surélevé d’une vingtaine
de mètres, qui se prolonge d’un côté vers Daï, et de l’autre vers les
Niellims. Les roches qui le constituent n’arrivent point jusqu’au lit de
la rivière.
|
C’est près du confluent de la première branche, la plus méridionale, du Bahr Salamat (Ba Goulfé, Ba Di, Ba Ko, Ba So, Ba Ta-
nako (1), des indigènes) que de nouvelles roches font leur apparition
sur la rive droite. Un gros bloc de grès horizontal, long de 50 mètres,
large de 15 à 30 mètres, et haut de 15 à 20 mètres, se trouve à un kilo-
mètre du lit principal, à proximité de la limite des eaux aux hautes
crues. Des rochers semblables existeraient çà et là, dans la brousse, aux
environs. Puis, à quelques centaines de mètres, en aval, commencent à
apparaître, dans le lit même du fleuve, et sur les bords de gros blocs
arrondis de granite dont la surface est noircie et comme vernissée par le
(1) Tanako, chef des Goulfés récemment décédé lors du passage de la
mission. La traduction de Ba Tanako est Rivière de Tanako (rivière qui passé
chez Tanako).
LE
MOYEN-CHARI
243
bioxyde de manganèse. Ces rochers forment un barrage, non continu,
près du confluent du bras principal du Bahr Salamat et du Chari.
Deux ou trois kilomètres plus loin, on retrouve des blocs semblables,
formant une chaîne qui va d’une rive à l’autre et alignée O. 250 N.
À partir du confluent du Bahr Salamat on aperçoit beaucoup
mieux sur la rive gauche le plateau déjà cité.
Les confluents. — Sur la rive droite, à 3km.,500 en aval de Fort-
F1G. 49. —
Une danse des Kabas.
Archambault, il existe un petit bras peu important du Boungoul ou Ba
Karé (1). A 11 kilomètres on coupe le bras principal actuel dont le lit
estlarge de 400 mètres environ, mais il est en grande partieensablé, l'eau
n’en occupe que #0 mètres de large et n’a qu'une profondeur au gué de
0,40. Un autre bras se trouve à 5km.,500 plus loin, c’est le Dio dont le
lit est large de 50 mètres. Tantôt l’eau occupe toute la largeur du lit,
(4) Ba Karé signifie rivière de Karé
Boungoul se nomme aussi Ba Keita.
ou
rivière qui passe à Karé.
Le
944
L’'AFRIQUE
CENTRALE
FRANÇAISE
tantôt elle se réduit à un filet de 3 ou 4 mètres de largeur ayant à
peine 0",30 de profondeur; le courant est insensible.
Le marigot de Bambara dont le confluent est situé à 40 kilomètres
environ de Fort-Archambault en amont, que les laptots considèrent
comme communiquant avec le Boungoul ou Ba Karé, ne constituerait
pas un bras de cette rivière d’après Decorse.
Le Bahr Salamat atteint le Chari à 50 kilomètres à vol d’oiseau
en aval de Fort-Archambault. Le delta se compose de plusieurs bras
en grande partie ensablés. Le plus important a une centaine de mètres
de largeur et se divise en deux à quelques centaines de mètres du
Chari, ses berges ont de 3 à 4 mètres de haut. Le lit ne contient
en mai que des flaques d’eau et des prairies de bourgou. A 6 kilomètres en aval se trouve un autre bras mais moins
important que le
précédent. À 6 kilomètres sur la rive gauche le fleuve reçoit successivement le Bahr el Azreg et le Bahr Sara. Ce sont des rivières
distinctes. Le Bahr Sara est, de l'avis de tous, plus important que la
rivière des Kabas (1) (Bahr el Abiod ou Bamingui). L’Azreg et le Babr
Sara ont leur confluent situé à 15 ou 18 kilomètres environ en aval de
Fort-Archambault. À ce confluent leurs lits se confondent, étant séparés
seulement par une grande plaine marécageuse, recouverte d’eau pendant
les crues, et sillonnée en temps ordinaire de nombreux canaux anastomosés.
III.
—
EXCURSION
A
L'OUEST
DU
CHARI
Les Niellims. — Le jour même de notre passage à gué du Chari
(27 mai) nous arrivions chez les Niellims, qui, autrefois, habitaient
un petit massif granitique (2) longeantla rive gauche du fleuve, jusqu’au
confluent du Bahr-Salamat, où se trouve une importante agglomération,
résidence du chef Gaye. Ce dernier il y a quelque temps vint s’établir
à Fort-Archambault, à quelques centaines de mètres seulement en
aval du poste, emmenant avec lui une partie de la tribu. L’autre partie
est restée sur l’emplacement granitique ou dans le voisinage de cet
emplacement.
(1) Les Kabas ont des villages le long du Bamingui
Archambault.
(2) Ce massif a été nommé « Monts de Niellim ».
en amont de Fort-
LE
MOYEN-CHARI
245
Les cultures des Niellims sont le Sorgho, variété à grain rouge
qui n’est guère employé que pour faire le Pipi ou Mérissa (Bière de
mil). Le petit mil (penicillaria) qui est le plus usité pour l'alimentation,
l'arachide, les haricots que l’on vient de semer (26 mai), le pois de
terre (Voandexeia) et des courges diverses.
La paille d’arachide est ici recueillie et utilisée pour la nourriture
des chevaux. La seule espèce de coton que j’aie remarquée est le Gossypium herbaceum. On tisse peu. La plupart des hommes n’ont pour
tout vêtement qu’un tablier confectionné avec une peau d'animal dont
le poil a été conservé. Ce tablier se porte par derrière et ne couvre
que les fesses. Les femmes sont, ou complètement nues ou portent
un pagne très étroit formé d’une bande d’étoffe grossière. Pour les
hommes et les femmes il en est de même dans toute la région. On
rencontre très peu de tissus d’origine européenne.
Le principal commerce de la tribu qui habite l'emplacement granitique consiste dans la fabrication et la vente de meules en granite
pour broyer le mil, de mortiers, d’enclumes et de pilons pour forger
le fer. Ces objets se répandent jusque chez les Saras de l'E. dont nous
parlerons plus loin, et à Simmé, agglomération, située à 90 kilomètres
E.-S.E. environ à vol d’oiseau des Niellims, nous avons vu un superbe
atelier de forgeron appartenant au chef Nagué dont les enclumes et
les pilons à forger provenaient des Niellims. Je laisse maintenant la
parole au D' Dgcorse (1).
Rien qu’à voir leur village, on devine que les Niellims sont déjà
plus policés que leurs voisins. Mais Gaye, leur chef, n’hésitejamais, paraît-il,
à faire sauter une tête et même plusieurs au besoin. Mahomet est passé par
là, il y a déjà de l’ordre. Chacun ne va plus s'installer à sa guise. On se
groupe plus étroitement et l'aspect général y gagne.
Ce qui frappe le plus, c’est le soin des gens pours’isoler chez eux. Comme
ils vivent beaucoup plus les uns sur les autres que chez les Bandas, ils ont
imaginé d’entourer leurs cases, non seulement d’un paravent circulaire,
mais la plupart des habitations sont elles-mêmes placées dans une cour
fermée par un secco tressé, haut souvent de 2 mètres. Les cases sont rondes,
jolies et bien faites. Elles ont au minimum 3 mètres au pignon, autant de
diamètre, une muraille en secco de 1",30 de haut, une toiture en paille dont
la forme affecte une forme ogivale.
Pour
les construire, on commence par le toit, on tresse d’abord une
(1) Du Congo au Lac Tchad, pp. 95 à 98.
246
L’'AFRIQUE
CENTRALE
FRANÇAISE
forme en rubans de grosse paille, qu'on renforce intérieurement avec deux
ou trois rouleaux d’herbe en cercles concentriques. Par dessus cette première
carcasse, on établit une armature en tiges très légères d’une sorte de jute
que les indigènes appellent « dji ». Cette membrure sert à fixer le chaume,
bien imbriqué, qui s'appelle « tiani ». Du pignon jusqu’au tiers de la pente,
on tresse souvent le chaume de façon à faire un chapeau bien étanche,
appelé « bit ».
La toiture achevée, on plante enterre un cercle de fourches dépassant le
sol de 1",30 environ, sur la place même où va s'élever l'habitation. On sou-
lève alors le toit tout d’une pièce et on l'installe sur les fourches où il tiendra
par son propre poids.
Il ne reste qu’à tresser, en guise de muraille, un paillasson grossier qui
fera tout le tour en laissant une porte large de 50 à 60 centimètres. Un store
appelé « farfar » la fermera. Cette case est protégée contre les regards indiscrets par une clôture qui ménage autour d’elle un petit couloir dont l’entrée
ne coïncide pas avec celle de la case, c’est le « sara ». Si la famille a besoin
de plusieurs cases, un sara les englobera toutes, en circonscrivant une grande
cour intérieure ; on trouvera là des cases à captifs, une case à cuisine, ainsi
que les « daôlô », paniers à mil en paille tressée, de forme quadrangulaire
arrondie, recouverts d’un toit conique en paille appelé « oûli ». Ces greniers
sont montés sur de grossières plates-formes carrées en rondins, élevées sur
des pieux de 50 centimètres à 2 mètres.
Ce nom de sara m'étonne, car c’est ainsi qu’on désigne généralement
tous les gens, sans exception, qui habitent ces régions depuis le Logone à
l'O. jusqu'aux frontières ouaddaïennes.
Comme à l'habitude, le mobilier n’est pas riche. En général, on ne
trouve qu'un lit placé au milieu de la case, dont il occupe presque tout le
diamètre. Il se compose simplement de baguettes de bois sur un cadre
perché à plus d’un mètre du sol.
Pour monter dessus, il faut un marchepied, escabeau mobile, ou
fourche plantée en terre. Sous le lit même, un foyer.
Dans l'endroit où l’on fait la cuisine, des marmites de terre à fonds
arrondis, des écuelles également en terre, des trépieds en bois fixés dans le
sol, de gros chenèêts en argile pour remplacer les pierres trop rares dans le
pays. Même chez les plus pauvres, on trouve une jarre énorme pour la
confection du pipi, et une autre plus petite pour y mettre le synonyme ; mais
on laisse celle-ci à l'extérieur ; on l’enterre jusqu’au goulot et on perce le
fond ! c’est le « toulou-sala », autrement dit un urinoir pour dames.
Je ne parle pas des calebasses, des paniers et des débris de toute sorte
de choses, il y a des « ngier » en paille, petites passoires à pipi en forme de
bonnets de coton ; des « labri », paniers à mettrele poisson, qui ressemblent
aux nôtres ; des espèces de nasses appelées «niâr », des houes, des mortiers,
des pilons, des filets. On trouve aussi des victuailles et des condiments : de
l'huile de karité, des chapelets
de tomates sèches, des grains de dier, espèce
d'hibiscus,
de l’amoâni, sorte de levüre tirée du mil qui sert à fabriquer le.
LE
MOYEN-CHARI
‘247
pipi ; de l'écorce d’un arbre appelé hoûma, elle se met dans la soupe quand
on l'a débarrassée de son épiderme. Je suis obligé de m'arrêter, car j’en
aurais jusqu’à demain si je voulais continuer mes inventaires.
Komé est le premier village Ndamm que nous rencontrons sur
notre route. Les habitants sont tributaires des Niellims. Si le village
ne compte aujourd’hui que 45 cases, il fut jadis beaucoup plus important, à en juger par les anciennes cultures envahies par la brousse.
FiG. 50, — Etablissements de cultivateurs Saras et champs préparés en sillons.
Le mil et les chèvres manquent ou sont rares : l’agriculture paraît
délaissée. C’est que le travail et le commerce du fer absorbent toute
l’activité des habitants. Toutefois, il n’y a actuellement qu’une seule
fonderie debout, tandis qu’autrefois l’extraction du fer eut une importance capitale. Des rochers des Niellims à Komé, toute la brousse est
jalonnée de scories, et le village actuel est entouré d’une épaisse enceinte de scories dont les tas atteignent jusqu’à 30 mètres de diamètre
et 10 mètres de hauteur. J’évalue à 50,000 mètres cubes la dimension
de l’ensemble, ce qui supposé une exploitation très active pendant
plusieurs siècles. Si même on réfléchit que le fer n'est employé en
Afrique centrale qu’à la fabrication des couteaux, des pointes de flèches
ss
Sn
ms
248
L’'AFRIQUE
CENTRALE
FRANÇAISE
et de sagaies, et de quelques instruments agricoles, on demeure étonné
de la quantité prodigieuse d’armes qui sont sorties de ces fonderies (1).
Le minerai employé est une sorte de limonite qu’on recueille dans la
roche ferrugineuse,
dite latérite, à la surface du sol. Les indigènes
nous ont caché l'emplacement de ces gisements, mais je suis persuadé
qu'il y en a partout dans la plaine où affleure la latérite. Une partie
des habitants ont, devant leur demeure, un petit monceau de minerai
et un peu de charbon (probablement de cailcédrat) et il est probable
qu'ils fondent au fur et à mesure le fer dont ils ont besoin.
Komé (les indigènes disent Koum) est entouré d’un massif de
très beaux bambous, dont les chaumes sont actuellement chargés d’inflorescences sphériques portant des graines mûres qu’on substitue au
mil dans l’alimentation. Quelques beaux arbres ombragent les cases
du village, les plus grands sont des Anogeissus leiocarpus, des Sterculia lomentosa, deux ou trois espèces de Ficus, des Acacia. Dans la
brousse environnante, il y a en quantité des Parkia et des Butyrospermum (Karité), chargés de fruits, mais leur maturation est fort en
retard sur les régions du S. (2).
J'ai remarqué que, depuis les Niellims jusqu’à Komé, la flore avait
changé d'aspect. Aux essences des plaines basses s’est substituée la
végétation des terrains pierreux et secs. La brousse est épaisse, les
plantes à rhizome et à bulbes en ce moment ont réapparu et je
revois ici presque toutes les espèces du Kouti. De même les bambous,
les Daniella,.les Vilex, et maintes autres essences du Soudan méridional, se retrouvent, alors que les arbustes des bords du Chari font
totalement défaut. Nous ne sommes pourtant pas à plus de 10 ou 15
mètres au-dessus du fleuve ; j’attribue ce changement dans la végétation, non à l'altitude, mais à la présence des roches ferrugineuses et
des graviers granitiques. La végétation est en retard d’un mois et demi
sur Ndellé. Les Liliacées ouvrent à peine leurs premières fleurs et le
petit gazon, qui suit les pluies, commence seulement à pousser (3). Les
(1) On emploie d’ailleurs chez les Saras, d’après M. Deconrse, de petits
couteaux inutilisables qui constituent une véritable monnaie d'échange. Une
monnaie
semblable existe dans la région de Beyla, au Soudan (Guerzès).
(2) On commence seulement à récolter les gousses de Parkia et les fruits
du Karité sont loin d’être mûrs.
(3) La chenille qui dévaste les plaines du Bangoran n’apparaît pas dans
cette région.
Te
PR
LE
MOYEN-CHARI
249
tornades deviennent plus rares ; depuis le départ de Fort-Archambault
nous n’avons pas eu de pluie; les 30 et 31 mai, il a seulement tonné.
Aussi l’eau est-elle rare à Komé. On la retire d’un puits situé à
1 kilomètre à PE. du village. Ce puits, creusé dans une argile grisâtre,
est profond de 8 mètres et l’eau vient actuellement à T mètres
au-dessous de la surface.
A 5 ou 6 kilomètres du village, j'ai remarqué une dépressionque
les Ndamms nomment Pargoro. En ce point, elle était large de 50 mètres en moyenne, elle s’unissait à des culs-de-sac vers l'E. Le fond est
F1G. 51: — Jeunes enfants emmenés en esclavage et délivrés par
M. l'Administrateur BRUEL.
argileux, couvert d'herbes qui commencent à pousser. Il n’y a pas de
berges, à proprement parler, mais le sol gazonné s’abaisse insensiblement au niveau de la dépression, jusqu’à { mètre ou 1",50 en contrebas de la plaine; sur les rives, des bambous, de grands Vitex et des
Daniella, quelques hautes termitières indiquent que le sol est humecté,
sinon inondé au milieu de l’hivernage. Cependant je n’y ai pas trouvé
d’eau, ni même les traces laissées par les éléphants aux lieux où
ils viennent s’abreuver ; il y a seulement des empreintes d’antilopes
qui feraient croire à l’existence de flaques d’eau aux environs. La direction de cette dépression, là où je l’ai traversée, était S. 20° O.-N.,
20° E. ; mais elle doit dévier à peu de distance puisqu'on m’a dit qu’elle
250
L’'AFRIQUE
CENTRALE
allait, d’une part, vers Potom,
FRANÇAISE
situé au S.-S.E., et Koutou; d’autre
part, vers Moul, situé au O.-N.0.
Palem. — Le but que j'ai poursuivi en entreprenant le voyage
Niellim-Goundi-Daï-Bahr Sara était non seulement de vérifier les hy-
pothèses émises par NacnriGaz sur le régime hydrographique des
marais de ces pays, d'étudier l’importance orographique et la constitution géologique des monts Niellims, mais j’ai tenu aussi à rattacher
les itinéraires de la Mission Chari-Lac Tchad à ceux de NacuriGaz et de
Maisrre. Palem était particulièrement séduisant pour cette jonction.
C’est en effet le point extrême vers.le $. atteint en 1872 par NacuriGaz,
lorsqu'il accompagna Abou Sekkin dans son expédition chez les
Toummoks (1). C’est là enfin, qu’en 1892, la mission Muisrre, partie
duS., rattacha son itinéraire à celui de illustre explorateur allemand.
Au cours de ce pèlerinage, j’ai pu d’ailleurs, non seulement vérifier
la sincérité des renseignements donnés par les deux voyageurs qui
nous ont précédé chez les Toummoks, mais noter quelques faits
scientifiques nouveaux. Cest l’apanage du naturaliste de glaner
toujours des faits nouveaux, même derriére les explorateurs les plus
consciencieux.
La distance de Goundi à Palem est de 8 à 10 kilomètres environ;
la route se fait en 2 heures de marche.
On croise la dépression du
Ba Illi à mi-chemin environ. Nous reviendrons plus loin sur cette dé-
pression. De Goundi au Ballli (4 ou 5 kilomètres), le sentier serpente
à travers la plaine cultivée. Les grands arbres, Ficus, Parkia, Tama-
riniers, Karités se mêlent à quelques palmiers (Borassus, Hyphæne)
pour ombrager les champs et leur donner l'aspect de magnifiques
vergers. On se croirait au Soudan nigérien, dans la région comprise
entre Bobo Dioulasso et San. Le sorgho a été déjà ensemencé en
grande partie, et les jeunes pieds, au nombre de 3 ou 5 par groupe,
élèvent leurs feuilles de 5 à 8 centimètres du sol. Des haricots (Vigna)
semés en dehors du mil ont déjà germé et étalent leurs premières
feuilles. Hier et aujourd’hui, j'ai constaté que les terres cultivées
autour de Goundi s'étendent sur 5 à 6 kilomètres de rayon, ce qui
représenterait, en en déduisant ïes terrains occupés par les emplacements habités, environ 6.000 hectares. Mais on ne peut guère
compter
plus du tiers ensemencé
chaque année,
le reste étant en
(4) G. NacuriGaL, II, ch. VI, p. 646 et suivantes.
4
LE
MOYEN
-CHARI
251
jachères ou en petite brousse qui ne sera détruite que dans quelques
années. Il resterait encore 2000 hectares de terrain cultivé. Cela n’a
rien d’exagéré, puisqu'il est établi par ailleurs que la population de
Goundi est de 2000 à 3000 habitants.
Après le passage du Ba Illi, il reste encore 6 kilomètres pour
atteindre Palem. Le terrain demeure plat, mais devient plus boisé.
Les palmiers paraissent de plus en plus fréquents. Sur la route, nous
croisons une quinzaine de femmes qui portent les fruits du Deleb au
F1G. 52. —
Femmes
Saras préparant le sol pour les semis.
marché de Goundi. Elles y ont joint quelques gousses de Parkia et des
fruits de Balanites. Les Karités (Butyrospermum) sont chargés de
fruits qui ne sont pas encore mûrs.
Palem a été autrefois bien plus important qu’il ne l’est aujourd’hui.
La brousse a reconquis de grands espaces depuis une quinzaine
d'années. Le sol constitué par une terre beaucoup plus argileuse que
sablonneuse, à l'inverse des bords du Chari, semble fertile. Une foule
de petites plantes annuelles couvre déjà le sol de bourgeons et la
brousse est jonchée de grosses touffes vertes de graminées à souche
vivace qui repoussent en ce moment. La plus commune est un
252
L'AFRIQUE
CENTRALE
FRANÇAISE
grand Andropogon à larges feuilles molles couvertes de poils blancs, les
chevaux en sont très friands.
Après m'avoir conduit à l’arbre où s’arrêta Muisrre, les gens du
village m’accompagnent jusqu’à la demeure du chef, et c’est à l’ombre
d’un grand Ficus Kobo où ont couché précédemment NacariGaz,
les quatre blancs de la mission Maisrre, enfin le capitaine PARAIRE
en 1901, que je me suis moi-même installé, et c’est là que le chef
vient me saluer. La conversation s'engage aussitôt sur ceux qui m'ont
précédé. La plupart des gens qui étaient là à l’époque du passage
de NacariGaL sont morts ;un vieux se souvient cependant du blanc qui
accompagna autrefois le sultan du Baguirmi. MuisrRe a laissé un
souvenir un peu plus vivace. Il avait de nombreux sénégalais et les
habitants qui, pour la plupart, voyaient des blancs pour la première
fois, lui firent le meilleur accueil qu'ils purent. Le chef qui l’avait reçu
est mort depuis plusieurs années; son fils lui a succédé. Enfin le voyage
tout récent du capitaine PARAIRE est encore mieux connu. On s’excuse
de ne pouvoir me faire des cadeaux aussi importants qu’à lui, « mais
le village est pauvre en ce moment ». J'étonne d’ailleurs ces braves
gens en leur remettant le cabri qu'ils m'ont donné. Depuis quelques
jours, nous sommes comblés de victuailles et c’est vraiment inutile de
s'encombrer de provisions. C’est une fois de plus l’occasion de constater que les pays sont assez riches en ressources indigènes, là où les
Européens ne passent point d'ordinaire.
Les habitants sont des Toummoks. On m’apprend d’ailleurs que
Niellims, Ndamms, Toummoks, Miltous, ne font qu’un, comme les
Saras, ils n’ont d’autres vêtements que le tablier de cuir; les cheveux
sont généralement coupés ras. Parfois, quelques grisgris autour du
cou, toujours le couteau de jet sur l’épaule.
J'évalue la population de Palem de 800 à 1.200 habitants. Les tapades
renferment de une à cinq cases et ne sont point aussi dispersées que
dans la plaine de Goundi, mais distantes seulement d’une trentaine
de mètres en général. La plupart sont réunies dans une vaste enceinte,
sorte de tata rudimentaire, constitué par une levée de terre glaise,
haute de 0®,50 à 1 mètre, bordée en dehors
par un fossé large, mais
peu profond. L'intérieur de l’enceinte mesure de 4 à 500 mètres de
diamètre.
Le village ne paraît point manquer de cabris, de volailles, de
mil, d’arachides. J’ai compté une quinzaine de chevaux, il peut y en
re
=
LE
MOYEN-CHARI
253
avoir une trentaine. Il reste encore du mil, quoique l’ensemencement
soit à peu près terminé, et on en emploie beaucoup pour faire le mérissa
(bière de mil). A cette époque de l’année, les fruits du Déleb sont consommés en quantité par les habitants. On compte environ 10.000 Boras-
sus dans le village ou ses environs, et chacun peut fournir 50 fruits
en moyenne, de la grosseur du poing; les Doum sont aussi assez
communs,
mais en dehors du village, sur la route de Goundi (1).
Région de Goundi-Koumara (Goumbra), Dai (2-6 juin). — C’est
F1G. 53. — Cultivateur sara et sa petite fille mettant la semence
en terre.
| 43,164
|
02/dumas.ccsd.cnrs.fr-dumas-01414848-document.txt_2
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 5,954
| 10,976
|
3.1 Critiques de l'étude 3.1.1 Points forts de l'étude 3.1.1.1 Comparabilité des groupes sur les caractéristiques générales
Les caractéristiques générales des deux groupes de population d'étude sont similaires, en effet il n'existe aucune différence significative en ce qui concerne les caractéristiques générales des deux populations : l'âge (p=0,247), la gestité (p=0,123) et la parité (p=0,259). Les deux populations sont également similaires du point de vue du type de grossesse ; que ce soit une grossesse spontanée (p=0,371) ou une grossesse obtenue par PMA (p=0,073). Enfin ces 2 populations ne sont pas significativement différentes concernant le terme de la rupture des membranes (p=0,121). 31
3.1.1.2 Comparabilité des pratiques
Les deux groupes de l'étude ont été sélectionnés au sein de la même maternité. De plus les pratiques en rapport avec la RPM sont soumises à un protocole de service ce qui signifie que les pratiques selon les intervenants sont comparables, ceci facilite l'interprétation des données. 3.1.2 Points faibles de l'étude
L'étude réalisée n'est pas représentative de la population nationale des nouveau-nés et des patientes ayant une RPM avant 34 SA. Il s'agit d'une étude rétrospective qui a un faible niveau de preuve scientifique. Cette étude s'est déroulée sur un seul centre : la maternité du CHIPS. Les études mono-centriques induisent de nombreux biais, notamment un biais de sélection. En effet, pour chaque groupe nous avons inclus les patientes uniquement si elles répondaient à des critères précis. Dans le premier groupe d'étude les patientes avaient accouché autour de 34 SA alors que dans le deuxième groupe elles étaient déclenchées entre 36 et 37 SA. Ces groupes ne sont donc pas généralisables à la population nationale car leur sélection répond à des critères très précis. Cependant, par les critères stricts de sélection utilisés, les deux groupes peuvent être comparés pour les indicateurs étudiés. Un des autres points faibles de l'étude est le nombre restreint de l'effectif dans chaque groupe, en effet, les deux groupes ne contiennent que 50 patientes. La puissance statistique de cette étude n'est donc pas assez forte pour montrer l'existence d'une différence significative dans la survenue d'évènement rare (comme la survenue de chorioamniotite (8 vs 6%)). 32 3.2 Interprétation des résultats et validation des hypothèses 3.2.1 Discussion de l'hypothèse 1 Hypothèse 1 : L'accouchement à 36 voire après 37 SA après une RPM avant 34 SA diminue les complications liées à la prématurité par rapport à un accouchement ayant lieu à 34 SA 3.2.1.1 L'état des nouveau-nés à la naissance
Tout d'abord, nous pouvons remarquer que le changement de protocole a permis d'augmenter significativement le terme de naissance des nouveau-nés. Bien que ce soit l'objectif du changement de protocole, on note qu'augmenter la période de latence est possible car, avant le changement, le terme de naissance était de 33,7 SA en moyenne alors qu'il passe à 36,8 SA après (p=0,007). Il y a donc eu une augmentation significative du terme de naissance de plus de 3 semaines ce qui améliore d'autant les chances du nouveau-né en ce qui concerne l'adaptation à la vie extra utérine à la naissance et dans la période néonatale. De plus après le changement de protocole, plusieurs nouveau-nés sont nés après 37 SA. En lien avec l'augmentation du terme de naissance, nous constatons une augmentation significative du poids de naissance des nouveau-nés après le changement de protocole. Avant le changement de protocole les nouveau-nés pesaient 1953 grammes en moyenne alors qu'après le changement de protocole ils pèsent 2852 grammes en moyenne (p=0,0053). Cette augmentation de poids à la naissance de près de 1 kg diminue fortement les risques de troubles métaboliques ou de thermorégulation bien que ces derniers n'aient pas été étudiés. Après le changement de protocole, il est important de souligner l'amélioration de l'état des nouveau-nés à la naissance. En effet, nous avons remarqué qu'avant le 33 changement de protocole, les -nés avaient une moyenne de 8,5 d'Apgar à 5 minutes de vie. Après le changement de protocole, le score d'Apgar a augmenté avec une valeur moyenne de 9,1 (p=0,018). Nous remarquons qu'après le changement de protocole, il y a une diminution significative du nombre de détresse respiratoire. Nous pouvons constater qu'avant de changer le protocole, il y avait plus de 8 nouveau-nés sur 10 qui avaient une détresse respiratoire à la naissance. Ce nombre a été réduit à 2 sur 10 après le changement de protocole de prise en charge de la RPM (p=0,014). 3.2.1.2 L'état des nouveau-nés dans la période néonatale
Nous constatons qu'après le changement de protocole, il y a une diminution significative du nombre d'ictère traité par photothérapie chez les nouveau-nés. Dans le groupe des enfants nés à 34 SA, il y avait 80% des nouveau-nés qui avaient un ictère et qui avaient nécessité une photothérapie alors que lorsque les enfants naissent après 36 SA, ce chiffre n'est plus que 32% (p=0,013). 34 Après le changement de protocole, nous avons constaté une diminution significative du nombre d'ETF réalisées ainsi que de leurs caractères pathologiques. En effet, avant le changement de protocole il y avait 96% d'ETF réalisées et elles étaient pathologiques dans 26% des cas. La comparaison des anomalies à l'ETF aurait nécessité de réaliser chez tous les nouveau-nés du groupe 2, une ETF afin de s'assurer qu'elle était normale. En l'absence de modifications dans les indications de pose de KTVO chez les nouveau-nés pendant la durée totale de l'étude, nous remarquons qu'après le changement de protocole il y a eu une diminution significative de la pose de KTVO chez les nouveau-nés. En effet, avant le changement de protocole il y avait 36 nouveau-nés (72%) qui avaient une pose de KTVO au début de son hospitalisation alors qu'après le changement, il n'y avait plus que 7 nouveau-nés (14%) pour lesquels la pose de KTVO a été effectuée (p=0,0097). Ces résultats indiquent que le changement de prise en charge de la RPM avant 34 SA, est associé à une amélioration de l'état de santé des nouveau-nés dans la période néonatale. En effet, nous avons remarqué une diminution significative des complications métaboliques et neurologiques au cours de l'hospitalisation. Nous avon également noté une baisse significative des gestes invasifs à haut risque infectieux tels que la pose de KTVO. 3.2.2 Discussion de l'hypothèse 2
Hypothèse 2 : Bien que la conduite expectative jusqu'à 36 SA augmente la période de latence et donc possiblement le risque infectieux, on peut émettre l'hypothèse que la couverture antibiotique recommandée ainsi que la surveillance clinique et paraclinique de ces femmes est suffisante à ne pas augmenter le risque d'infection néonatale précoce.
3.2.2.1 Chez le nouveau-né 35
Bien que notre étude ne nous ait pas permis de mettre en évidence une baisse significative de la valeur de la PCT à la naissance ou de la fièvre néonatale, nous pouvons remarquer qu'après le changement de protocole il y a eu une baisse significative des infections néonatales bactériennes précoces probables. En effet, avant le changement de protocole, 16 nouveau-nés (32%) avaient une infection probable dans les 72 premières heures de vie. Ce taux d'infection néonatale précoce a diminué à 10% après le changement de protocole (p=0,016). Cette diminution intervient alors qu'on note une augmentation significative de la durée d'ouverture de l'oeuf après le changement de protocole (p<0,001). Pour le traitement antibiotique, on remarque qu'avant le changement de protocole, près de 90% des nouveau-nés recevaient des antibiotiques à la naissance alors qu'ils n'étaient que 40% après le changement de protocole. Cette diminution d'un facteur deux est également significative (p=0,0023). Enfin, nous n'avons pas noté de différence significative quant à la durée du traitement antibiotique chez les nouveau-nés. La durée de l'antibiothérapie néonatale est équivalente avant et après la modification du protocole. 3.2.2.2 Chez la mère
Il nous est impossible de conclure sur le fait d'une diminution ou non du nombre de chorioamniotite suite au changement de protocole en raison des faibles effectifs et du manque de puissance inhérent. En effet, nous ne trouvons aucune différence significative sur la survenue de cet événement. Cette absence de différence ne doit pas nous inciter à conclure à l'absence d'impact du changement de protocole sur le risque de chorioamniotite car nos effectifs ne nous permettent pas de mettre en évidence une différence sur un événement dont la fréquence de survenue est inférieure à 10%.
3.2.3 La voie d'accouchement 36
Bien que la voie d'accouchement ne constituait pas un critère de jugement de notre étude, il nous semble important de noter la différence significative de la voie d'accouchement après le changement de protocole. En effet, il y a une diminution significative du nombre de patientes ayant accouché par césarienne après la modification du protocole (60% vs 22% ; p=0,003). 3.3 Perspectives
Les résultats de notre étude suggèrent que l'augmentation du délai entre la rupture de la poche des eaux et l'accouchement améliore l'état de santé des nouveau-nés à la naissance ainsi que dans la période néonatale sans augmentation de la fréquence des infections néonatales précoces probables. Il serait intéressant de voir si ces résultats peuvent se généraliser à la population générale. En effet, nous pensons qu'un accouchement plus tardif serait moins anxiogène pour les couples, ceux-ci sont souvent plus inquiets des conséquences de la prématurité. Nous pouvons les rassurer en leur disant que retarder l'accouchement diminue les conséquences liées à la prématurité sans potentiellement augmenter le risque d'infection, la surveillance clinique, para-clinique ainsi que les mesures thérapeutiques mises en place pendant la période de latence est suffisante pour ne pas augmenter la mortalité et la morbidité maternelle et foetale. D'autre part, nous constatons que le changement du terme de naissance conduit à une modification du secteur d'hospitalisation du nouveau-né à la sortie de la salle de naissance. En effet, en naissant entre 36 et 37 SA, les nouveau-nés sont majoritairement admis en SDC (70%) alors que lors de la naissance à 34 SA ces nouveau-nés étaient hospitalisés surtout en réanimation néonatale ou aux soins intensifs (94%). Ce changement a permis aux mères d'être hospitalisées avec leurs enfants et donc de favoriser l'établissement du lien mère-enfant. Cela permet aux parents de réduire l'anxiété liée à l'hospitalisation de leurs enfants dans un autre service. Conclusion
Dans les recommandations nationales, il n'y a pas de consensus en ce qui concerne la conduite à tenir devant une RPM avant 34 SA. Le principal sujet à controverse dans cette prise en charge est le terme optimal de l'accouchement. Certains sont en faveur d'un accouchement à 34 SA afin de limiter le risque infectieux alors que d'autres préfèrent un accouchement plus tardif (entre 36 et 37 SA) afin de diminuer les conséquences liées à la prématurité. Cette controverse se retrouve aussi au sein des protocoles des maternités françaises. Au cours de cette étude, nous avons évalué plusieurs indicateurs de santé à la naissance et dans la période néonatale des nouveau-nés dont la grossesse a été marquée par une RPM avant 34 SA en fonction de deux prises en charge différentes. Nos résultats suggèrent une amélioration de l'état de santé à la naissance ainsi que dans la période néonatale des nouveau-nés lorsque la naissance est provoquée aux alentours de 36 SA par rapport à un accouchement à 34 SA. En dépit d'une augmentation importante du délai entre la rupture des membranes et l'accouchement, nous n'avons pas constaté d'augmentation du nombre d'infections néonatales précoces probables. Il serait intéressant de réaliser une étude à plus grande échelle afin de généraliser ou non ces conclusions à la population générale et d'homogénéiser les pratiques au sein des maternités françaises.
Kayem G, Maillard F. Rupture prématurée des membranes avant terme : attitude interventionniste ou expectative? Gynécologie Obstétrique Fertil. 2009;37(4):334–41. 2. Crenn C, Herbert C. Épidémiologie, facteurs de risque et causes de la prématurité. Colloque de périnatalité en Seine et Marne 30/11/2010, Périnatalité- Agence Régionale de Santé – Ile De France Simhan HN, Canavan TP. Preterm premature rupture of membranes: diagnosis, evaluation and management strategies. BJOG Int J Obstet Gynaecol. 2005;112 Suppl 1:32–7. 4. Helmer H. Continuing challenges in treating preterm labour: preterm prelabour rupture of the membranes. BJOG Int J Obstet Gynaecol. 2006;113 Suppl 3:111– 2. 5. Blanchon L, Accoceberry M, Belville C, Delabaere A, Prat C, Lemery D, et al. Rupture des membranes : physiopathologie, diagnostic, conséquences et prise en charge. J Gynécologie Obstétrique Biol Reprod. 2013;42(2):105–16. 6. Lucet M. Rupture prématurée des membranes entre 24 et 34 SA: HAD versus hospitalisation traditionelle. Mémoire en vue de l'obtention du diplôme d'Etat de sage-femme. Ecole de sages-femmes de Baudelocque. [Internet]. 2013 [cited 2014 Dec 28]. Available from: http://dumas.ccsd.cnrs.fr/dumas00873236/document 7. Marret H, Deschamps P, Fignon A, Perrotin F, Body G, Lansac J. Conduite à tenir devant une rupture prématurée des membranes sur une grossesse monofoetale avant 34 semaines d'aménorrhées. J Gynécologie Obstétrique Biol Reprod. 1998;27(7):665–75. 8. Peter J. Rupture prématurée des membranes [Internet]. 2016. Available from: http://www.gyneobs.com/gyneobs/Rupture_prematuree_des_membranes.html 9. Pasquier J-C, Doret M. Les complications et la surveillance pendant la période de latence après une rupture prématurée des membranes avant terme : mise au point. J Gynécologie Obstétrique Biol Reprod. 2008;37(6):568–78. 10. Couteau C, Haumonté J-B, Bretelle F, Capelle M, D'Ercole C. Pratiques en France de prise en charge des ruptures prématurées des membranes. J Gynécologie Obstétrique Biol Reprod. 2013;42(1):21–8. 40 11. CNGOF. Recommandations pour la pratique clinique: La rupture prématurée des membranes [Internet]. Available from: http:/www.cngof.asso.fr/D_PAGES/PURPC_06.HTM 12. Pasquier J-C, Doret M. Les membranes foetales : développement embryologique, structure et physiopathologie de la rupture prématurée avant terme. J Gynécologie Obstétrique Biol Reprod. 2008;37(6):579–88. 13. Rocha FG, Slavin TP, Li D, Tiirikainen MI, Bryant-Greenwood GD. Genetic associations of relaxin: preterm birth and premature rupture of fetal membranes. Am J Obstet Gynecol. 2013;209(3):258.e1–8. 14. Shook LL, Buhimschi CS, Dulay AT, Bahtiyar MO, Buhimschi IA. 10: Fetuinmediated aggregation of amniotic fluid proteins into calcifying nanoparticles (CNP) and preterm premature rupture of membranes (PPROM). Am J Obstet Gynecol. 2012;206(1):S7. 15. Sung J, Whitin J, Yang Q, Madan A, El-Sayed Y. 492: Plasma proteomic profiles in preterm labor (PTL) and preterm premature rupture of membranes (PPROM). Am J Obstet Gynecol. 2012;206(1):S224. 16. Cobo T, Palacio M, Martínez-Terrón M, Navarro-Sastre A, Bosch J, Filella X, et al. Clinical and inflammatory markers in amniotic fluid as predictors of adverse outcomes in preterm premature rupture of membranes. Am J Obstet Gynecol. 2011;205(2):126.e1–8. 17. Schall J, Riethmuller D, Maillet. Les urgences en gynécologie obstétrique [Internet]. Available from: http://campus.cer 18. Ramsay, Lieman, Brumfield, Carlo. Chorioamnionitis increases neonatal morbidity in pregnances complicated by preterm premature rupture of membranes. Am J Obstet Gynecol. 2005;192(4):1162-6. 19. Rouse DJ, Landon, Leveno KJ. The maternal-Fetal medicine units cesarean registry chorioamnionitis at term and duration-relashionship to outcomes. Am J Obstet Gynecol. 2004;191(1):211-6. 20. Lappen, Keene, Lore, Grobman, Gossett. Existing models fail to predict sepsis in a obstetric population with intrauterine infection. Am J Obstet Gynecol. 2010;(573):203. 21. Ville Y. Accouchement prématuré et inflammation. J Gynécologie Obstétrique Biol Reprod. 2001;30(1):12–6. 22. Romero, Gomez, Ghezzi, Yoon, Mazor, Edwin, et al. A fetal systemic inflammatory response is folllowed by the spontaneous onset of preterm parturition. Am J Obstet Gynecol. 1998;179(1):186-93. 41 23. Agostini A, Bourret A, Derniaux E, Garbin O, Huchon C, Lamy C, et al. Recommandations pour le pratique clinique: les infections génitales hautes. Collège national des gynécologues obstétriciens français; 2012. Available from: http://www.cngof.asso.fr/D_TELE/RPC_infections_2012.pdf 24. Lamy C, Zuily S, Perdriolle E, Gauchotte E, Villeroy-de-Galhau S, Delaporte MO, et al. Prise en charge des infections du post-partum. J Gynécologie Obstétrique Biol Reprod. 2012;41(8):886–903. 25. Saizonou J, Ouédraogo L, Paraiso MN, Ayélo P, Kpozèhouen A, Daraté R, et al. Epidémiologie et prise en charge des infections du per-partum à la maternité du centre hospitalier départemental de l'Ouémé-Plateau au Bénin. Pan Afr Med J [Internet]. 2014 Feb 4 [cited 2016 Aug 12];17. Available from: http://www.ncbi.nlm.nih.gov/pmc/articles/PMC4119426/ 26. Eskes TK. Clotting disorders and placental abruption: homocysteine--a new risk factor. Eur J Obstet Gynecol Reprod Biol. 2001;95(2):206–12. 27. Mukherjee S, Bawa AK, Sharma S, Nandanwar YS, Gadam M. Retrospective study of risk factors and maternal and fetal outcome in patients with abruptio placentae. J Nat Sci Biol Med. 2014;5(2):425–8. 28. Nath CA, Ananth CV, Smulian JC, Shen-Schwarz S, Kaminsky L, New JerseyPlacental Abruption Study Investigators. Histologic evidence of inflammation and risk of placental abruption. Am J Obstet Gynecol. 2007;197(3):319.e1–6. 29. Ananth CV, Oyelese Y, Srinivas N, Yeo L, Vintzileos AM. Preterm premature rupture of membranes, intrauterine infection, and oligohydramnios: risk factors for placental abruption. Obstet Gynecol. 2004;104(1):71–7. 30. Oyelese Y, Ananth CV. Placental Abruption: Obstet Gynecol. 2006;108(4):1005– 16. 31. Pasquier J-C, Doret M. Les complications et la surveillance pendant la période de latence après une rupture prématurée des membranes avant terme : mise au point. J Gynécologie Obstétrique Biol Reprod. 2008;37(6):568–78. 32. Delorme P, Goffinet F, Ancel P-Y, Foix-LʼHélias L, Langer B, Lebeaux C, et al. Cause of Preterm Birth as a gnostic Factor for Mortality. Obstet Gynecol. 2016;127(1):40–8. 33. Ancel P-Y, Goffinet F, EPIPAGE 2 Writing Group. EPIPAGE 2: a preterm birth cohort in France in 2011. BMC Pediatr. 2014;14:97. 34. Blondel B, Kermanec M. Enquête nationale périnatale 2010, les naissances en 2010 et leurs évolutions depuis 2003. [Internet]. Ministère de la santé, INSERM; 2011 [cited 2014 Dec 28]. Available from: http://www.sante.gouv.fr/IMG/pdf/rapport_maternites2010.pdf 42 35. Gillard P, Sentilhes L, Deschamps P. Rupture prématurée des membranes en dehors du travail: conduite à tenir. J Gynécologie Obstétrique Biol Reprod. 2008;(19):298–303. 36. Pasquier J-C, Rabilloud M, Picaud J-C, Ecochard R, Claris O, Gaucherand P, et al. A prospective population-based study of 598 cases of PPROM between 24 and 34 weeks' gestation: description, management, and mortality (DOMINOS cohort). Eur J Obstet Gynecol Reprod Biol. 2005;121(2):164–70. 37. Organisation Mondiale de la Santé. Les conséquences néonatales de la prématurité: les maladies rencpntrées par ces npuveaux-nés. [Internet]. 2013. Available from: http://www.who.int/features/qa/preterm_health_challenges/fr/ 38. Accoceberry M, Carbonnier M, Boeuf B, Ughetto S, Sapin V, Vendittelli F, et al. Morbidité néonatale après attitude d'expectative suivie d'une naissance systématique à 34 semaines d'aménorrhée en situation de rupture prématurée des membranes. Gynécologie Obstétrique Fertil. 2005;33(9):577–81. 39. Casey BM, McIntire DD, Leveno KJ. The Continuing Value of the Apgar Score for the Assessment of Newborn Infants. N Engl J Med. 2001;344(7):467–71. 40. Flower P par Z. Pédiatrie: Détresse respiratoire du nouveau-né [Internet]. [cited 2016 Aug 12]. Available from: http://pediatriegenerale.blogspot.com/2014/09/detresse-respiratoire-dunouveau-ne.html 41. Sweet D, Bevilacqua G, Carnielli V, Greisen G, Plavka R, Saugstad OD, et al. European consensus guidelines on the management of neonatal respiratory distress syndrome. J Perinat Med. 2007;35(3):175–86. 42. Marillier J. Formation des étudiantes sages-femmes sur la prise en charge de la détresse respiratoire en salle de naissance. Mémoire en vu de l'obtention du diplôme d'Etat de sage-femme. Université Paris Descartes, Ecole de sagesfemmes de Baudelocque. [Internet]. Available from: http://dumas.ccsd.cnrs.fr/dumas-00627072/document 43. Galène-Gromez S, Laudenbach V. Réanimation du nouveau-né en salle de naissance. Prat En Anesth Réanimation. 2008;12(2):125–31. 44. Rodriguez RJ. Management of respiratory distress syndrome: an update. Respir Care. 2003;48(3):279–86; discussion 286–7. 45. Manuck TA, Varner MW. Neonatal and early childhood outcomes following early vs later preterm premature rupture of membranes. Am J Obstet Gynecol. 2014;211(3):308.e1–6. 46. Manuck TA, Varner MW. Neonatal and early childhood outcomes following early vs later preterm premature rupture of membranes. Am J Obstet Gyne . 2014;211(3):308.e1–308.e6. 43 47. Maisels MJ. What's in a name? Physiologic and pathologic jaundice: the conundrum of defining normal bilirubin levels in the newborn. Pediatrics. 2006;118(2):805–7. 48. Petrova A, Mehta R, Birchwood G, Ostfeld B, Hegyi T. Management of neonatal hyperbilirubinemia: pediatricians' practices and educational needs. BMC Pediatr. 2006;6:6. 49. Watchko JF. Hyperbilirubinemia and bilirubin toxicity in the late preterm infant. Clin Perinatol. 2006;33(4):839–52; abstract ix. 50. Ives NK. Kernicterus in preterm infants; lest we forget (to turn on the lights). Pediatrics. 1992;90(5):757–9. 51. Bratlid D, Nakstad B, Hansen TWR. National guidelines for treatment of jaundice in the newborn. Acta Paediatr Oslo Nor 1992. 2011;100(4):499–505. 52. Antenatal Corticosteroids to Reduce Neonatal Morbidity (Green-top Guideline No. 7) [Internet]. Royal College of Obstetricians & Gynaecologists. [cited 2016 Aug 12]. Available from: https://www.rcog.org.uk/en/guidelines-researchservices/guidelines/gtg7/ 53. Baud O. Antenatal corticosteroid therapy: benefits and risks. Acta Paediatr Oslo Nor 1992 Suppl. 2004;93(444):6–10. 54. Roberts D, Dalziel SR. Antenatal corticosteroids for accelerating fetal lung maturation for women at risk of preterm birth. In: The Cochrane Collaboration, editor. Cochrane Database of Systematic Reviews [Internet]. Chichester, UK: John Wiley & Sons, Ltd; 2006 [cited 2016 Aug 12]. Available from: http://doi.wiley.com/10.1002/14651858.CD004454.pub2 55. Caughey AB, Robinson JN, Norwitz ER. Contemporary Diagnosis and Management of Preterm Premature Rupture of Membranes. Rev Obstet Gynecol. 2008;1(1):11–22. 56. Kenyon S, Boulvain M, Neilson J. Antibiotics for preterm rupture of membranes. Cochrane Database Syst Rev. 2003;(2):CD001058. 57. Kenyon S, Boulvain M, Neilson JP. Antibiotics for preterm rupture of membranes. In: The Cochrane Collaboration, editor. Cochrane Database of Systematic Reviews [Internet]. Chichester, UK: John Wiley & Sons, Ltd; 2013 [cited 2016 Aug 12]. Available from: http://doi.wiley.com/10.1002/14651858.CD001058.pub3 58. Kenyon S, Boulvain M, Neilson J. Antibiotics for preterm rupture of the membranes: a systematic review. Obstet Gynecol. 2004;104(5 Pt 1):1051–7. 59. Haute Autorité de Santé. Recommendations pour la pratique clinique: prévention anténatale du risque infectieux bactérien néonatal précoce. [Internet]. 2001. 44 Available from: http://www.hassante.fr/portail/upload/docs/application/pdf/prevention_antenatale_du_risque_inf ectieux_bacterien_-_rec.pdf 60. RCOG. Preterm Prelabour Rupture of Membranes [Internet]. 2006. Available from: https://www.rcog.org.uk/globalassets/documents/guidelines/gtg_44.pdf 61. Lieman JM, Brumfield CG, Carlo W, Ramsey PS. Preterm premature rupture of membranes: is there an optimal gestational age for delivery? Obstet Gynecol. 2005;105(1):12–7. 62. Protocoles en Gynécologie Obstétrique, 2ème édition. Collège national des gynécologues obstétriciens français, Recommandations pour la pratique clinique: La rupture prématurée des membranes avant terme . 63. Festin. OMS Antibiotiques en cas de rupture prématurée des membranes [Internet]. [cited 2014 Dec 28]. Available from: http://apps.who.int/rhl/pregnancy_childbirth/complications/prom/mfcom/fr/ 64. Mackeen AD, Seibel-Seamon J, Muhammad J, Baxter JK, Berghella V. Tocolytics for preterm premature rupture of membranes. In: The Cochrane Collaboration, editor. Cochrane Database of Systematic Reviews [Internet]. Chichester, UK: John Wiley & Sons, Ltd; 2014 [cited 2014 Dec 31]. Available from: http://doi.wiley.com/10.1002/14651858.CD007062.pub3 65. Popowski T, Goffinet F, Batteux F, Maillard F, Kayem G. Prédiction de l'infection maternofoetale en cas de rupture prématurée des membranes par les marqueurs sériques maternels. Gynécologie Obstétrique Fertil. 2011;39(5):302– 8. 66. Goodnight W, Acharya K, Hastings A, Carter L, Marshall D. 535: Influence of PPROM on abnormal neurodevelopmental testing in early childhood. Am J Obstet Gynecol. 2012;206(1):S242. 67. Horton AL, Lai Y, Rouse DJ, Spong CY, Leveno KJ, Varner MW, et al. Effect of Magnesium Sulfate Administration for Neuroprotection on Latency in Women with Preterm Premature Rupture of Membranes. Am J Perinatol. 2015;32(4):387-92. 68. American College of Obstetricans. Guidelines on Premature Rupture of Membranes [Internet]. Annexes 47 Annexe I : Score d'Apgar et de Silverman
Score d'Apgar : Cotation Battements Respiration Coloration cardiaques Tonus Réponse à musculaire la stimulation 0 Absents Absente Bleue ou Nul Nulle Hypotonie Grimaces Tonus Cris pâle 1 2 <100/min >100/min Quelques Cyanose mouvements des spontanés extrémités Normale Rose normal Score de Silverman : Critères 0 1 2 Battements des Absent Modéré Intense Absent Intercostal Intercostal et sus- ailes du nez Tirage sternal Absent Au stéthoscope À l'oreille Absent Modéré Intense Balancement Respiration Thorax immobile Respiration thoraco- synchrone Geignement expiratoire Entonnoir xiphoïdien paradoxale 48 abdominal
Annexe II : Protocole de prise en charge de la RPM avant 34 SA à la maternité du CHIPS en mai 2011
1) Proscrire le toucher vaginal (risque infectieux surajouté majeur) devant toute suspicion de rupture prématurée des membranes. 2) Confirmer le diagnostic de rupture prématurée des membranes - Examen du col sous spéculum stérile - Si la rupture n'est pas franche : - Test à la nitrazine (Amnicator) - Échographie (oligoamnios) En cas de résultats contradictoires des examens précédents (clinique, écho, amnicator), et uniquement dans ce cas : utilisation du test AmniSURE ® (PAMG-1). 3) Evaluer le risque de chorioamniotite - Température - Leucorrhées fétides - Douleurs utérines - Recherche de métrorragies - Monitorage : contractions, RCF (tachycardie) 4) Compléter le bilan - Échographie : estimation de poids foetal, profil biophysique et évaluation de la quantité de liquide, longueur du col. - Bactériologie du liquide amniotique (examen direct et cultures) de seconde intention, s'il existe un doute important sur le diagnostic de rioamniotite et s'il existe une citerne suffisante (≥ 10 mm entre les membres inférieurs, ≥ 20 mm ailleurs) permettant l'amniocentèse. 49 5) Traitement - Hospitalisation - Repos sans alitement - Célestène chronodose® 12 mg IM à répéter après 12 à 24 heures - Antibiothérapie : - Clamoxyl 2 g IV toutes les 6 heures et Erythromycine 250 mg IV toutes les 6 heures pendant 48 heures. - Puis Clamoxyl 250 mg per os toutes les 8 heures et Erythromycine 250 mg per os matin et midi et Erythromycine 500 mg per os le soir pendant 5 jours. - Tocolyse IV en cas de contractions utérines, durant 48 heures au maximum, en l'absence de présomption de chorioamniotite, et avant 32 SA. Déclenchement à partir de 34 SA 6) Au delà de 72 heures de rupture des membranes Sortie possible : Discuter l'HAD (ou la surveillance par sage-femme à domicile) si la situation est stable et en l'absence de tout signe infectieux. Surveillance aux explorations fonctionnelles ou par une SF libérale Eléments de surveillance : - Autosurveillance de la température 2/j et de la bonne activité foetale - Monitorage cardiaque foetal quotidien ou au moins 2 fois par semaine, - NG-plaquettes et CRP 2 fois par semaine, - PV-ECBU 1 fois par semaine (NG, CRP 1 fois/Semaine en externe, visé par la SF libérale en alternance avec NG, CRP, PV, ECBU en EF) - Échographie hebdomadaire 7) Pendant le travail L'antibiothérapie est réalisée par voie IV. Le Clamoxyl® doit être utilisé de première intention (en l'absence d'allergie à la pénicilline) à la dose de charge de 2 g suivi de 50 1g / 4 heures. En cas de contre-indication au Clamoxyl ®, il faut avoir recours à la Dalacine IV 900 mg (à passer sur une heure) / 8 heures. Le nombre de toucher vaginaux doit être le plus réduit possible (éviter l'examen horaire). Un bilan infectieux néonatal doit être réalisé et le placenta adressé en anatomie pathologique.
8) Antibiothérapie en post partum
- Si traitement préventif et accouchement dans les 7 jours : arrêt de l'antibiothérapie après l'accouchement. - Si chorioamniotite avérée : poursuivre le traitement 48h à 5 jours dans le post partum. 9) Cas particulier : Rupture prématurée des membranes avant 24 SA
Information et discussion avec la patiente (par le senior d'obstétrique et le pédiatre) : - En cas de demande parentale d'interruption médicale de grossesse, le dossier doit être discutée en staff (elle ne doit pas être acceptée et réalisée en urgence) ; - Le traitement conservateur peut être réalisé mais sans tocolyse, ni corticoïdes, ni antibiotiques jusqu'à 24 SA.
xe III : Protocole de prise en charge la avant la maternité
1) Proscrire le toucher vaginal (risque infectieux surajouté majeur) devant toute suspicion de rupture prématurée des membranes. 2) Confirmer le diagnostic de rupture prématurée des membranes en cas de doute clinique Examen du col sous spéculum stérile, Si la rupture n'est pas franche : - Test à la nitrazine (Amnicator®) - Échographie (oligoamnios) En cas de résultats contradictoires des examens précédents (clinique, écho, amnicator), et uniquement dans ce cas : utilisation du test AmniSURE® (PAMG-1). 3) Evaluer le risque de chorioamniotite - Température - Leucorrhées fétides - Douleurs utérines - Recherche de métrorragies - Monitorage : contractions, RCF (tachycardie) 4) Compléter le bilan - Échographie : estimation de poids foetal, profil biophysique et évaluation de la quantité de liquide, longueur du col, - Bactériologie du liquide amniotique (examen direct et cultures) de seconde intention, s'il existe un doute important sur le diagnostic de chorio-amniotite et s'il existe une citerne suffisante (≥ 10 mm entre les membres inférieurs, ≥ 20 mm 52 ailleurs) permettant l'amniocentèse. 5) Traitement - Hospitalisation, - Repos sans alitement, - Célestène chronodose® 12 mg IM à répéter après 12 à 24 heures, - Antibiothérapie : - Amoxicilline (Clamoxyl®) 2 g IV toutes les 6 heures et Erythromycine 250 mg IV toutes les 6 heures pendant 48 heures, -puis Amoxicilline (Clamoxyl®) 250 mg per os toutes les 8 heures et Erythromycine 250 mg per os matin et midi et Erythromycine® 500 mg per os le soir pendant 5 jours. - Tocolyse IV en cas de contractions utérines, durant 48 heures au maximum, en l'absence de présomption de chorioamniotite, et avant 32 SA. À partir de 34 SA, proposer un déclenchement/maturation après information obstétrico-pédiatrique des bénéfices et des risques materno-foetaux de l'expectative et du déclenchement (chorioamniotite aigue sans sur-risque d'infection néonatale, risque lié à la prématurité modérée). 6) Au-delà de 72 heures de rupture des membranes
Sortie possible : Discuter l'HAD (ou la surveillance par sage-femme à domicile) si la situation est stable et en l'absence de tout signe infectieux. Surveillance aux explorations fonctionnelles ou par une SF libérale Éléments de surveillance : - Autosurveillance de la température 2/j et de la bonne activité foetale - Monitorage cardiaque foetal quotidien ou au moins 2 fois par semaine - NG-plaquettes et CRP 2 fois par semaine - PV-ECBU 1 fois par semaine (NG, CRP 1 fois/Semaine en externe, visé par la SF libérale en alternance avec NG, CRP, PV, ECBU en EF) - Échographie hebdomadaire 53 7) Pendant le travail L'antibiothérapie est réalisée par voie IV. Le Clamoxyl® doit être utilisé de première intention (en l'absence d'allergie à la pénicilline) à la dose de charge de 2 g suivi de 1g/4 heures. En cas de contre-indication au Clamoxyl ®, il faut avoir recours à la Dalacine® IV 900 mg (à passer sur une heure) / 8 heures. Le nombre de toucher vaginaux doit être le plus réduit possible (éviter l'examen horaire). Un bilan infectieux néonatal doit être réalisé et le placenta adressé en anatomie pathologique ainsi qu'en bactériologie 8) Antibiothérapie en post partum - Si traitement préventif et accouchement dans les 7 jours : arrêt de l'antibiothérapie après l'accouchement. - Si chorioamniotite avérée : poursuivre le traitement 48h à 5 jours dans le post partum. 9) Cas particulier : Rupture prématurée des membranes avant 22 SA
Information et discussion avec la patiente (par le senior d'obstétrique et le pédiatre) : - En cas de demande parentale d'interruption médicale de grossesse, le dossier doit être discuté en staff (elle ne doit pas être acceptée et réalisée en urgence) ; - Le traitement conservateur peut être réalisé mais sans tocolyse, ni corticoïdes, ni antibiotiques jusqu'à 24 SA.
54 Annexe IV : Protocole de prise en charge de la RPM avant 34 SA à la maternité du CHIPS en mai 2016
1) Proscrire le toucher vaginal (risque infectieux surajouté majeur) devant toute suspicion de rupture prématurée des membranes. Celui-ci est réalisé au moment de la décision du mode de déclenchement (ocytocine ou prostaglandines). 2) Confirmer le diagnostic de rupture prématurée des membranes en cas de doute clinique - Examen du col sous spéculum stérile, - Si la rupture n'est pas franche : - Test à la nitrazine(Amnicator®) - Echographie(oligoamnios) On considère qu'il y a RPM si 2 des 3 tests (clinique, biologique, échographique) sont positifs. 3) Bilan d'entrée et évaluation - Bilan pré-op (incluant la NFS) - PV, ECBU Evaluation des signes cliniques de la chorioamniotite : - Fièvre maternelle > 38° persistant plus d'1 heure ou fièvre ≥ 38,3° le plus important des signes cliniques de chorioamniotite - Tachycardie maternelle (> 100 BPM) - Tachycardie foetale (> 160 bpm) Combinaison d'une fièvre maternelle et d'une tachycardie maternelle et/ou foetale fortement évocatrice d'une infection intra-utérine - Douleurs du fond utérin et liquide amniotique fétide ou purulent 55 Le diagnostic de chorioamniotite est retenu s'il y a : - Présence de la fièvre > 38° - + deux des autres signes : (tachycardie maternelle ou foetale, sensibilité utérine et liquide amniotique purulent ou fétide) : faible spécificité des signes cliniques, rechercher d'autres causes potentielles de fièvre L'absence d'autres étiologies à la fièvre, et la présence de facteurs de risque de chorioamniotite (combinaison de 3 critères cliniques notamment la RPM) renforce le diagnostic fiable de chorioamniotite 4) Compléter le bilan - Echographie : estimation de poids foetal, profil biophysique et évaluation de la quantité de liquide, longueur du col (si < 34 SA) 5) Traitement - Hospitalisation - sans alitement - La cure de corticoïde : Celestene® 12 mg en IM répété après 24 h, en l'absence de corticothérapie préalable jusqu'à 36 + 5 SA. - Antibiothérapie : - Amoxicilline (Clamoxyl®) 2 g PO toutes les 6 heures pendant 48 heures, et 1 seul cp de Zithromax 250 mg à l'entrée. - Puis Amoxicilline (Clamoxyl®) 250 mg per os toutes les 8 heures pendant 5 jours. - Tocolyse per os en cas de contractions utérines, durant 48 heures au maximum, en l'absence de présomption de chorioamniotite, et avant 34 SA. 6) Au-delà de 72 heures de rupture des membranes
Sortie possible : Discuter la surveillance par sage-femme à domicile si la situation est stable et en l'absence de tout signe infectieux. Surveillance aux explorations fonctionnelles et par une SF libérale en alternance Eléments de surveillance : - Autosurveillance de la température 2/j et de la bonne activité foetale - Monitorage cardiaque foetal quotidien ou au moins 2 fois par semaine - PV-ECBU 1 fois par semaine - NG plaquettes sur indication et non en systématique 56 - Échographie hebdomadaire
7) Le déclenchement
Déclenchement immédiat si : - LA méconial (déclenchement immédiat) À partir de 37 SA, l'indication de déclenchement/maturation est formelle : proposer un déclenchement/maturation après information obstétrico-pédiatrique des bénéfices et des risques materno-foetaux de l'expectative et du déclenchement (chorioamniotite aigue sans sur-risque d'infection néonatale, risque lié à la prématurité modérée). - Si le col est favorable (score de Bishop > 6) : déclenchement par ocytocine. - Si col est défavorable (score de Bishop ≤ 6) : maturation cervicale par prostaglandines. 8) Antibioprophylaxie pendant le travail
Pas d'antibioprophylaxie : - o si le dépistage du streptocoque B réalisé entre 35 et 37 SA est négatif. - o Si RPM> 18 heures et dépistage du streptocoque B réalisé entre 35 et 37 SA est négatif et en dehors d'une fièvre ≥ 38°C. - o si césarienne à membranes intactes avant mise en travail quelque soit l'âge gestationnel et le statu quant au portage du streptocoque B. Antibioprophylaxie dans les situations suivantes : - ATCD d'infection néonatale précoce à Streptocoque B - Bactériurie à Streptocoque B (≥104/ml) durant la grossesse actuelle - Dépistage positif durant la grossesse actuelle (sauf en cas de césarienne programmée et en l'absence de travail ou de rupture prématurée des membranes) - Statu inconnu quant au portage du Streptocoque B et l'une des conditions suivantes: - Accouchement < 37 SA - Rupture des membranes > 18 heures - Fièvre ≥ 38.0° C. Si une chorioamniotite est suspectée, une antibiothérapie à large spectre, incluant un antibiotique actif sur le Streptocoque B doit remplacer l'antibioprophylaxie. 57
9) En salle de naissance
- L'utilisation d'antiseptique par voie vaginale doit être systématique (Bétadine® dermique). - Les antibiotiques sont poursuivis jusqu'à l'accouchement. - Le nombre de toucher vaginaux doit être le plus réduit possible (éviter l'examen horaire) et systématiquement avec de la Bétadine® dermique. - Un bilan infectieux néonatal doit être réalisé comprenant un prélèvement placentaire, de membranes, et de cordon pour examen anatomo-pathologique et bactériologique.
10) Antibiothérapie en post partum
Si traitement préventif et accouchement dans les 7 jours : arrêt de l'antibiothérapie après l'accouchement. - Si chorioamniotite avérée : poursuivre le traitement 48h après retour à l'apyrexie dans le post partum. 11) Cas particulier: Rupture prématurée des membranes avant 22SA
Information et discussion avec la patiente (par le senior d'obstétrique et le pédiatre) : - En cas de demande parentale d'interruption médicale de grossesse, le dossier doit être discuté en CPDPN (elle ne doit pas être acceptée et réalisée en urgence). - Le traitement conservateur peut être réalisé mais sans tocolyse, ni corticoïdes, jusqu'à 23 SA. - Antibiothérapie : - Amoxicilline (Clamoxyl®) 2 g PO toutes les 6 heures pendant 48 heures, et 1 seul cp de Zithromax 250 mg à l'entrée. - Puis Amoxicilline (Clamoxyl®) 250 mg per os toutes les 8 heures pendant 5 jours..
| 53,106
|
64/tel.archives-ouvertes.fr-tel-01319961-document.txt_17
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 8,259
| 13,068
|
Même le "s" en forme de serpent est assez douteux » / « Une tempête, un orage, une catastrophe climatique » « Un truc improbable » / « Qui n'a aucune chance de se produire » / « Chose qui arrive contre toute probabilité » « Ce que l'on ne peut pas prévoir/prédire (concrètement) » / « Quelque chose que l'on ne maîtrise/contrôle pas et arrive n'importe quand » « Quand on ne sait pas ce qui va arriver » / « Une énigme, l'inconnu » / « Tout ce qu'on ne sait pas expliquer » / « Quelque chose qu'on ne sait pas » « Une situation non attendue » / « Une surprise, bonne ou mauvaise » « Une situation [] qui s'insère mal dans la situation donnée où le hasard apparaît » « Événement imprévu positif ou négatif » / « Événements que l'on ne peut pas expliquer » « Ce qui n'est pas restrictif à la somme des causalités » « 3 as et 2 rois dans une main au poker » / « Un lancé de dés » / « Un dé » « C'est une rencontre »
4 4 2 38 18 10 4 6 2 12 2 12 8 2 Hasard rationnel (4 %) Statistiques (-) Un outil scientifique Physiques (=) « Un calcul statistique trop difficile car il y a trop de causes » « L'incertitude d'Heisenberg qui explique la multiplicité des conséquences avec les mêmes causes » 2 4 2
PERSPECTIVE INDIVIDUELLE
(24 %) Chance (+) Un attribut personnel Malchance (-) Incontrôlable (=) Mauvais choix (-) Une action Un facteur de l'action Passivité, Perte de contrôle (-) Coïncidences (=) « Tu as de la chance, le hasard est avec toi » « Tu es malchanceux, le hasard est contre toi » / « Ce qui se joue à l'insu de
personne » « Part d'aléatoire des comportements humains » / « La spontanéité contre le contrôle de soi » « Un mauvais choix que l'on fait, la mauvaise direction que l'on prend, quelque chose de négatif » « Un non-choix, une perte de contrôle » / « Ne pas réfléchir, ne pas peser les choses avant d'agir » « Des coïncidences plus ou moins heureuses qui viennent s'ajouter à nos choix permanents » 4 6
12 4 2 10 8 2
AUTRES
(4 %)
Une personnalité (+)
« Au point de vue
musical
, le mot "hasard" me fait penser au chanteur Thierry Hazard » / « Un joueur de foot! Eden Hazard » 469
Deux perspectives du hasard se distinguent parmi les différentes représentations fournies par les réponses des enquêtés. Collectif à 72 %, touchant tout le monde de la même façon, le hasard est majoritairement décrit comme acteur (68 %), agissant sur l‟environnement des individus placés en position égalitaire face à leur méconnaissance partagée de ses expressions. Dans l‟ensemble, le hasard reste cette chose abstraite (38 %), globale, sans forme, insaisissable, une substance, puissance agissante indépendamment des volontés humaines. Enveloppant les actions des individus en dressant leur cadre, il semble agir d‟abord, engageant des actions individuelles par réaction. Surtout inattendu, imprévu et incontrôlable (18 %), il interroge, est inconnu, inexpliqué et mystérieux (10 %), et n‟est pas désigné comme l‟attribut d‟une chose mais comme sa force motrice, « la chose » elle-même, le « quelque chose » autonome, se formant lui-même. En tant que situation (6 %), il évoque à la fois un effet de surprise et une discordance et, de la même façon, il est un événement (12 %) imprévu, inexpliqué et incontrôlable, autonome et provoquant l‟incompréhension. Dans cette optique, l‟aléa est neutre, positif comme négatif mais apparaît de plus en plus dans sa dimension instantanée. Plus incisif, ponctuel, cinglant que la « chose imprévisible », le hasard événementiel se révèle moteur d‟action. Encore plus avec la représentation cournotienne d‟une configuration structurelle (12 %), il pénètre des sphères d‟action concrètes telles que le jeu et la rencontre et prend enfin une connotation positive sous les traits de l‟ouverture aux possibles. Son autonomie, jusqu‟ici neutre ou négative, est valorisée pour témoigner de sa force libératoire et créatrice. Cependant, parce que cette liberté de tout réaliser implique autant le bon que le mauvais, le hasard provoque aussi des ang isses, assez peu présentes (la violence à 4 %) et neutralisées par le dispositif mathématique. La représentation d‟un hasard rationalisé sous les traits d‟un outil scientifique (4 %) permet de recadrer l‟aléa dont les débordements sont vecteurs de désordre. Jamais citée directement, cette dynamique désordonnée guide l‟essentiel des représentations, et son opposition à l‟ordre social s‟aperçoit plus précisément au travers des représentations individualisées. Comme cela a déjà été dit, le hasard est essentiellement individuel parce qu‟il prend plus de place dans une vie que dans un ensemble macroscopique. Il est facile de gommer l‟imprévu pour une collectivité, par des probabilités prévisionnelles et la mise en place de politiques sécuritaires. En revanche, on ne fait pas des statistiques sur une personne et son seul cas prend - 470 - pour elle la valeur d‟absolu. Par exemple, en cas de catastrophe naturelle, les alertes prévisionnelles de Météo-France permettent de réduire le nombre global de sinistres mais pour la personne sinistrée, le hasard a été plus fort que les statistiques. C‟est pourquoi ses représentations à l‟échelle collective sont neutres, voire positives, tandis que la perspective individuelle présente une connotation majoritairement négative. Le hasard essentiellement représenté comme substance agissant en amont de l‟individu, provoque une attitude défensive de l‟acteur. Ayant d‟abord à l‟esprit que son action est menée en réaction aux événements aléatoires, l‟individu semble ne plus retenir le hasard que comme le grain de sable susceptible de modifier une action qu‟il aurait engagée initialement. Rarement heureux (chance à 4 %), à l‟échelle individuelle, le hasard s‟oppose, de toute façon, à la volonté de l‟acteur. Le plus souvent présenté comme un attribut personnel (12 %), il donne lieu à des actions néfastes pour celui qui les mène (10 %). Mis en lien avec les choix, il n‟est pas mis en situation concrète par les enquêtés ne citant jamais la représentation de l‟aventure et très peu celle de la rencontre (2 %). Cette dernière n‟apparaît pas concernant l‟acteur mais forme une configuration structurelle générale. L‟idée de passivité amenée par l‟incarnation d‟un hasard omnipotent se retrouve dans la perspective individuelle de la perte de contrôle, du non-choix et de l‟insouciance (« ne pas réfléchir, ne pas peser les choses pour agir ») (8 %). La teinte négative attribuée à ces comportements ne semble pas compensée par la spontanéité citée de fa neutre (4 %), en opposition au « contrôle de soi », sans qu‟il ne soit précisé de jugement prescriptif. Enfin, les coïncidences, rarement évoquées, constituent un facteur de l‟action individuelle (2 %), neutre mais extérieur à l‟individu en se distinguant de ses choix. Sans être forcément opposé aux décisions initiales de l‟acteur, ces coïncidences illustrent néanmoins le caractère coercitif du hasard et lui confèrent plutôt une connotation négative. Finalement, peu de représentations différentes apparaissent et indiquent l‟importance des trois grandes figures de l'imprévu, de l'inexplicable et de l'incontrôlable. Les déclinaisons autour de ces trois axes sont rarement conscientisées et leur mise en situation s‟avère difficile. B.5. Figures symboliques et sens du hasard
Essentiellement néfaste sous ces trois grandes figures, le hasard perturbe l‟être social et les attitudes d‟acceptation ou de négation perçues au cours des tests précédents, révèlent trois tendances destructrices générales. Indépendant et autonome, il signale le manque de maîtrise possible et la subordination de l‟individu, voire son aliénation. Cause première d‟une situation ou d‟un événement négatif, il dérange l‟individu, perturbe son bien-être personnel. Enfin, sa négation par la responsabilisation, le choix ou la rationalisation instaurent l‟inégalité naturelle et sociale, ainsi que la manipulation de l‟être1286. À partir de ces trois grands types de représentations, nous identifions sept figures symboliques du hasard, motrices d‟actions dans la vie quotidienne.
1. Le hasard humain
Hasard de la naissance, il est inégalitaire et inéluctable, agit contre la volonté individuelle et apporte indifféremment le bien ou le mal, la chance ou la malchance. Incarné par une image d‟« absolu agissant », il représente la rencontre de l‟être social avec un élément "x" 1287. Désengageant la responsabilité de l‟individu, ce hasard pousse à la passivité dont témoignent les expressions de « bonne étoile » ou de « manque de veine ». 1286 1287 Cf. Patrick Legros (1993), La Création sociale de l'image imaginaire, op. cit., p. 372. Ibid. 2. Le hasard personnel
Toujours aussi puissant, le hasard conserve ses traits d‟inexpugnable mais incite cette fois à agir. Par des actions, plus ou moins responsables, ou par ses choix, l‟individu compose avec le hasard, voire le crée lui-même. Typiquement, il s‟agit des opportunités et occasions que l‟on provoque afin de formater sa chance plutôt que d‟en appeler à la chance. Les comportements à risque mesurés du domaine de l‟aventure entrent dans ce cadre, s‟agissant de provoquer et de « jouer » avec le hasard. Les jeux combinés (alea/agôn) alimentent également cette dynamique, consistant à travailler l‟aléa pour le retourner en sa faveur, déjouer les pièges de l‟inconnu (par exemple, l‟inconnu des cartes des adversaires au Poker) et surmonter ses obstacles (distribution aléatoire des cartes). Ici, les qualités d‟extraquotidienneté de l‟aléa sont sollicitées par l‟individu, même s‟il sait ne pas le maîtriser pour autant. Le comportement est ludique et destiné à apaiser l‟angoisse de l‟imprévu transcendantal en s‟y confrontant. Les actions de la puissance autonomes font peur et l‟individu se rassure en se prouvant qu‟il détient des armes pour se défendre.
3. Le hasard autonome
Rejoignant le hasard humain, le hasard indépendant est récréatif parce qu‟il crée une cassure distrayante dans le quotidien. Cependant, son autonomie provoque l‟angoisse de notre manque de contrôle. À la fois joyeux et terrifiant, il peut instiguer des actions ou pétrifier l‟individu, le figeant dans ses peurs et l‟invitant à les nourrir passivement. Dans un sens, il motive des attitudes ludiques (comme dans le cas du has personnalisé), l‟acteur exploite sa qualité extra-quotidienne et les impressions d‟inaccoutumée qu‟il suscite. Dans un rapport d‟attraction/répulsion lié à son caractère tremendum majestas, l‟être social entretient la relation avec le hasard. En revanche, si la terreur de son autonomie prend le dessus, l‟agent demeure passif, les superstitions cessent d‟être ludiques et réconfortantes et les images de destinée fatale servent à justifier l‟impuissance humaine.
4. Le hasard ludi
que Ici, le hasard est réduit à la composante d‟un jeu. Instigateur d‟activités sociales, il n‟a plus aucune action sur l‟individu qui le crée de toutes pièces. Institutionnalisé sous les traits des jeux d‟argent, par exemple, l‟aléa inspire des techniques marketing et alimente un marché économique. Présenté sous des images de chance, d‟égalité (de gain, sociale), d‟espoir ou de rêve, il perd sa valeur destructrice et n‟existe plus vraiment que sous des traits industrieux. 1288 Ibid., p. 374. 7. Le hasard dangereux
Sous des images de malheur, malchance, risque, accident, danger, voire mort, le hasard dangereux combine l‟autonomie globale de l‟aléa et l‟effet catastrophique individuel. Témoin de l‟inquiétude de l‟imprévu, il incarne la peur de la mort dans un système temporel linéaire. Entre début et fin de la vie, le hasard plonge l‟individu face à la fragilité de sa condition et témoigne systématiquement de sa vulnérabilité. Jamais positif, ce hasard constitue une irruption néfaste dans le quotidien de l‟être social, dérangeant son confort et sa tranquillité. S‟il le fige pas totalement l‟individu, il ne l‟incite pas à mettre en place des actions ludiques et à exploiter ses capacités motrices, novatrices, émotionnelles favorables. Tout acte mené face au hasard est de nature réactive et consistera à contrôler, autant que possible, l‟élément perturbateur afin de le détruire, au moins momentanément. Désordre nécessaire à l‟ordre, il est socialement positif dans sa vocation de sécurisation mais la mesure pour ne pas entretenir et créer davantage d‟anxiété est ténue. Suscitant amertume, colère et peur, le hasard dangereux est source de confrontations, d‟actions extra-sécuritaires, d‟attitudes de repli et s‟avère le plus destructeur en aspirant à un système clos, dénué de nouveauté. Vider la vie de sa substance aléatoire conduit à retirer tout mouvement à une organisation et à la voir évoluer vers une forme totalitaire1289. Quoi qu‟il en soit, le caractère angoissant du hasard vient, comme la mort, de sa nature inexpugnable. En sortant, tout au long de la vie, des cadres du contrôle, du savoir, de la maîtrise et des certitudes ration , il dérange l‟ordre linéaire de la vie sociale. Rappelant l‟angoissante linéarité temporelle imposant fatalement un futur mortel, le hasard prend les traits de l‟épée de Damoclès et chacune de ses apparitions témoigne de la fragilité humaine. Cependant, en lui rappelant sa vulnérabilité, l‟aléa motive aussi l‟individu à se renforcer, par des comportements de lutte avec ou contre le hasard. Pour le détruire, l‟être social met en place des actions de préservation sécuritaires et responsables et, parallèlement, joue avec ses caractères les plus favorables de nouveauté, d‟émotion et de rêve pour créer sa vie avec lui. Finalement, les représentations sociales témoignent de la dualité du hasard motivant des activités sociales paradoxales. synonymiques du mot hasard ne sont pas directement des images de responsabilité, elles appellent toutefois le joueur à travailler l‟élément aléatoire dans ses pratiques afin de construire son propre destin. Plutôt que de se résigner face à ce destin et de s‟en remettre passivement à sa chance, il faut bâtir des chances de réussite sociale. La fonction d‟espoir offerte par l‟imprévu est pondérée par l‟image du risque incitant à la prudence et l‟excitation du jeu ou de l‟aventure est compensée par une responsabilisation des individus. Le partage de représentations communes autour de figures symboliques admises par tous révèle la fonction de lien social du hasard. Cristallisant les angoisses de la mort et du temps, il rend compte des fragilités et des espoirs de la communauté et ses représentations servent de remparts à des images vraiment destructives. L‟étude des RS du hasard fait-elle apparaître ses fonctions dans la vie sociale, en traduisant des domaines d‟actions (aventure, rencontre, jeu) et des préoccupations sociétales (gestion des risques, responsabilisation des comportements) formant le quotidien des êtres sociaux. CHAPITRE VIII LA DYNAMIQUE SYNTHÉTIQUE DU HASARD A. La vocation du hasard à relier les opposés
Depuis le début de l‟étude, on voit que le hasard n‟existe que dans l‟opposition. Contraire à l‟ordre, au déterminisme, à la prévention, à la connaissance, etc., l‟aléa vit dans la contradiction et occupe, de facto, une position duelle. Conflictuel, il fait vivre ses opposés en assurant leur indispensabilité, et instaure une relation entre les éléments contraires donnant vie à notre appréhension du monde. Selon la binarité de l‟imaginaire, le hasard ne fonctionne que par et pour le nécessaire, opérant la synthèse entre les antagonismes des régimes diurne et nocturne. De cette manière, il assure la fonction principale de pont entre la vie et la mort, et s‟avère créateur de relation au sein de la société. A.1. Les structures imaginaires du hasard A.1.1. Formation imaginaire du hasard
L‟imaginaire, tel que nous l‟entendons, au sens bachelardien, est la capacité humaine à déformer les images directement parvenues à l‟être par la perception de ses sens, afin de le libérer des apparences premières1290. Le propre de l‟homme, et ce qui le différencierait de l‟animal, est cette faculté à changer ses perceptions initiales pour les faire évoluer, si bien qu‟il s‟ouvre au monde en instaurant une relation avec son environnement. Au lieu de le subir passivement, il agit avec, créant son monde selon les images qu‟il perçoit et déforme, change de nouveau, renouvelle, modifie encore, etc. « Grâce à l'imaginaire, l'imagination est essentiellement ouverte, évasive. Elle est dans le psychisme humain l'expérience même de l'ouverture, l'expérience même de la nouveauté. Plus que tout autre puissance, elle spécifie le psychisme humain. Comme le proclame Blake : "L'imagination n'est pas un état, c'est l'existence humaine elle-même." »1291 1290 1291 Cf. Gaston Bachelard (1992b), L'Air et les songes, Paris, Le livre de Poche, p. 5 (1re éd. : 1943). Ibid., pp. 5-6. - 477 - Lorsque l‟être perçoit des images chaotiques, désordonnées, il vit d‟abord des émotions d‟étonnement, d‟effroi ou de plaisir, puis les « arrange » sous une forme plus compréhensible afin de les partager avec d‟autres personnes. L‟homme social, ne vivant que dans la relation, a besoin de communiquer des images et, pour ce faire, l‟imaginaire traduit la désorganisation ressentie par des images de chaos, de désordre, d‟accident, d‟aléa, de chemins se croisant, de rencontres, d‟étoiles ou d‟apparitions divines. Prêtes à être échangées, ces nouvelles images quittent l‟imaginaire, s‟extériorisent et se fixent dans le concept de hasard. À partir de là, sorties de l‟imagination, les représentations du hasard forment nos perceptions présentes. Nous interprétons immédiatement les images ressenties par le filtre du hasardconcept et agissons en fonction. Par cette dynamique de l‟imaginaire, le hasard prend forme, puis devient une force active et agissante, motrice des actions et activités des êtres sociaux. Car « une image qui quitte son principe imaginaire et qui se fixe dans une forme définitive prend peu à peu les caractères de la perception présente. Bientôt, au lieu de nous faire rêver et parler, elle nous fait agir »1292. Toutefois, la force du hasard, à l‟origine de ses fonctions novatrice et d‟ouverture (décrites dans le chapitre IX), est de rester une forme typiquement instable. Si, en général, « une image stable et achevée coupe les ailes à l'imagination »1293, le hasard continue de la nourrir, en donnant lieu à des activités sociales destinées à entretenir cette instabilité. Comme par besoin de rêverie, le hasard assure la fonction de renouvellement en n‟étant jamais tout à fait achev puisque, synonyme de méconnaissance, il invite toujours à de nouvelles créations ontologiques. Celles-ci se concrétisant sous des formes artistiques, intellectuelles, ou laborieuses (comme avec l‟utilisation de la sérendipité dans le monde de l‟entreprenariat) invitant chacun à une subjectivité impossible à cadrer et à stabiliser. La vocation du hasard à susciter émotions et intuitions entretient la dynamique imaginaire de déformation permanente des images ressenties ou pressenties. Enfin, rendu éternel, l‟aléa assure l‟éternité à ses opposés : ordre et nécessité. Issu d‟un principe organisateur du réel qu‟il a pour fonction de maintenir, le hasard ne peut que subir des phases de renforcement et d‟affaiblissement, selon le mouvement cyclique de la vie. 1292 1293 Ibid., p. 6 Ibid. A.1.2. Le hasard nocturne
Parmi les trois dominantes réflexes Ŕ posturale, digestive, rythmique Ŕ guidant l‟imaginaire pour organiser la formation anthropologique de l‟individu, le hasard se place au niveau du schème rythmique. De ce fait, il appartient au « régime nocturne » du symbolisme humain, opposé au « "régime diurne" concernant la dominante posturale, la technologie des armes, la sociologie du souverain mage et guerrier, les rituels de l'élévation et de la purification »1294. Ce régime étant subdivisé en dominantes digestive et cyclique, le hasard relève singulièrement de la technique du cycle animant des « symboles naturels ou artificiels de retour, les mythes et les drames astrobiologiques »1295. Les deux polarités de ce symbolisme (diurne et nocturne), si elles se confrontent, ne doivent pas se trouver en déséquilibre trop important, chacune de leurs structures, chacun de leurs schèmes et tous les réflexes dominants les composant étant nécessaires les uns aux autres pour la formation complète de l‟être et de sa vie sociale. Pour réaliser l‟équilibre, le hasard utilise largement le principe de la causalité qui « joue à plein » dans le régime nocturne, pour expliquer et justifier les logiques d‟action en société, et se structure dans la « dialectique des antagonistes », « la dramatisation » et les « coïncidentia oppositorum »1296. Conformément au réflexe copulatif qui l‟anime, le hasard a pour fonction de relier les éléments entre eux, comme on le voit dans la thématique du retour et du renouvellement qu‟il permet. Par exemple, dans les jeux de hasard, le principe de redistribution des mises en petits gains ponctuels est une dynamique de retour cyclique de la circulation de l‟argent. Renouvelant l‟espoir joueurs, elle les relie à leur activité, certes suivant un objectif consommatoire, mais surtout dans une logique ludique, si bien que le joueur adhère. Non pas consommateur passif, aliéné et « débilisé » par la société de consommation, celui-ci apprécie la pratique pour ce qu‟elle relève des schèmes verbaux du « revenir » et du « progresser », contre la « chute » du régime diurne. Quand l‟individu se situe en bas de l‟échelle sociale et se sent rabaissé dans sa vie (privée, professionnelle), celuici a besoin de retrouver l‟équilibre, par la progression, dans le régime nocturne, et l‟appel au hasard le lui permet, à travers la pratique des jeux d‟argent. A.2. Le hasard pour établir une relation
Avec Goffman et les systèmes d‟interaction formant société, et Simmel avec la métaphore du pont et de la porte, on considère que l‟élément n‟est rien sans sa relation avec l‟autre. « L'image des choses extérieures comporte pour nous cette ambiguïté que tout, dans cette nature extérieure, peut aussi bien passer pour relié que pour séparé. Les conversions ininterrompues tant des substances que des énergies mettent chaque objet en rapport avec chaque autre, et constituent un cosmos de tous les détails. Mais ces mêmes objets, d'un autre côté, restent voués à l'impitoyable extériorité spatiale, aucun fragment de matière ne peut avoir de lieu commun avec un autre, il n'y a pas de réelle unité du multiple au sein de l'espace. »1298 Dans le régime diurne, le hasard est « l‟ennemi » nécessaire pour légitimer ses structures et principes explicatifs en tant qu‟il constitue l‟autre moitié de la relation. Ici, il faut non seulement rendre le hasard visible, mais encore en exciter les effets afin de justifier ses propres principes d‟ordre. Quoi de mieux que de scander et sur-médiatiser les concepts de « violences urbaines » et d‟insécurité pour renforcer, voire créer, un besoin de protection dans la population. Ainsi une politique sécuritaire assoit-elle son ordre en exacerbant la sensation collective de désordre, de trouble, de chaos. De la même façon, l‟église condamne la pratique des jeux de hasard pour rappeler la nécessité divine et ramener à elle des partisans moins 1297 1298 Ibid., p. 321. Georg Simmel (
1988)
, «
Pont
et
porte
», op. cit., p. 161. - assidus. Les gouvernements légiférant contre les jeux ne font pas autre chose : à prétendre combattre les méfaits du hasard (excès de jeux), ils affirment et confortent leur rôle protecteur des citoyens mais, en réalité, avivent l‟attention des joueurs, les amenant éventuellement à jouer davantage et, par conséquent, à apporter des recettes supplémentaires à un État. Faire semblant d‟annihiler le hasard mais ne surtout pas y parvenir, telle est l‟équation posée par la logique relationnelle. Le désordre, nécessaire à l‟ordre, prend une image démoniaque dans le monde diurne, pour renforcer la relation, les deux parties formant un même tout dont l‟unicité dépend de l‟opposition des forces. Dans ce système d‟opposition nécessaire et « reliante », le hasard appartient au domaine du croire, obscurantisme du régime nocturne, tandis que le monde diurne fonctionne suivant la raison et la rationalité. Toutefois, en même temps qu‟il relie, pont entre les conceptions et les images opposées, pont entre les individus (interactions), le hasard permet à chacun de fermer la porte aux parties gênantes du régime diurne. Pour cette raison, il permet la relation, en protégeant des interactions intrusives. Contre un trop-plein de sociétal dans la vie intime, la porte protège l‟individu des agressions extérieures, comme le fait le hasard en recentrant l‟individu sur sa chance. Parce qu‟il n‟y a société que lorsqu‟il y a une action réciproque et que les structures de l‟imaginaire sont binaires et manichéennes, les individus agissent dans l‟opposition, voire dans la confrontation systématique, suivant un jeu d‟alternance et d‟équilibrage. « On peut présenter l'évolution de toute destinée humaine telle une alternance régulière d'attachements et de détachements, d'obligations et de libérations. »1299 Dans ce cadre, le hasard est relié au croire par son caractère d‟opposant, en général. Sa domination sociale, par rapport à la rationalité, conduit à une perspective sociétale de jeu d‟anéantissement de l‟aléa dans les domaines de l‟économie, de la finance, des sciences, et à des comportements personnels oscillant entre le pour et le contre Ŕ pratiques superstitieuses, conduites à risque Ŕ où l‟individu se met en position « borderline », en se mettant à la limite du rationnel et de l‟irrationnel. B. De l'importance du croire Séparer mondes des sciences et des croyances est une conception occidentale et moderne supposant une échelle de valeurs entre les deux univers. Dans un quotidien pragmatique, les sciences incarnent la raison, le progrès et la vérité émanant du travail de la recherche 1299 Georg Simmel (2009), Philosophie de l'argent, op. cit., p. 345. - scientifique. Les croyances sont, elles, reléguées aux obscurantismes religieux, manques de connaissances (sous-entendues scientifiques), erreurs de jugement et constituent d‟archaïques mensonges. Un scandale médical récurrent autour de « guérisseurs philippins » illustre, entre autres exemples, cette dualité entre les domaines de savoirs et leur point de rencontre dans les pratiques. Capables de plonger littéralement leurs mains dans n‟importe quelle partie du corps de leur patient, ces chirurgiens retireraient à mains nues des tumeurs et autres indésirables, soignant de l‟appendicite au cancer. Tandis que ces « médecins » arguent la foi religieuse et le pouvoir divin, la rationalité scientifique occidentale conduit à deux autres types d‟explication. L‟un dénonce une escroquerie et fait la démonstration de trucages illusionnistes 1300. L‟autre tendrait plutôt vers une utilisation des lois de la mécanique quantique et en appelle surtout à l‟humilité intellectuelle, remémorant aux lecteurs les procès de Galilée et les considérations d‟Einstein sur la mince frontière ente l‟ignorant et le savant 1301. Que l‟effet placebo fonctionne ou non, il consiste à créer un choc psychologique chez le patient (vue de l‟extraction de ses intestins sans douleur) en défiant ses certitudes rationnelles habituelles pour activer ses croyances irrationnelles (religieuses ou paranormales). L‟effet psychique doit par la suite influencer le corps pour la guérison. La « vérité » de l‟action concernant sa nature (médicale ou charlatane) et son efficacité (guérison ou non) mise à part, l‟intérêt de ce scandale réside dans la démonstration du besoin de croyance des individus. La nécessité ancestrale de croire dépassant le besoin de compréhension, le même type de pratiques superstitieuses s‟ observent dans différents domaines de la vie sociale. Dans le sport, par exemple, des animaux prédisent l‟issue de matchs, un événement comme l‟Euro 2012 inspirant un véritable bestiaire dont l‟emblématique mascotte allemande « Paul le poulpe » continue d‟enthousiasmer les amateurs de football1302. 1300 Cf. André Jimenez et Pierre Genève (2011), « Les chirurgiens à mains nues. 2011, le retour des arnaqueurs? », in http://therapiesquantiques.com/HOMME_Pensee_Energie_articles.html#0909. 1301 « Si l'on considère l'ensemble des connaissances possibles dans l'Univers, entre l'ignorant et le savant il y a à peu près un centimètre » Cf. Albert Einstein, cité par André Jimenez et Pierre Genève (2011), in « Dimensions cosmiques de l‟homme et chirurgie métaphysique », ibid.
1302 Lors des événements footballistiques du Championnat d‟Europe 2008 et de la Coupe du monde 2010, en Allemagne, une pieuvre de l‟aquarium Sea Life d‟Oberhausen a été repérée par le personnel, pour ses comportements auprès des visiteurs. Elle a ensuite été sollicitée pour désigner les vainqueurs de match, en choisissant parmi des boites aux couleurs des diverses équipes. Sur 14 prédictions, 12 se seraient avérées exactes, la pieuvre ayant ouvert une boite de la couleur de l‟équipe finalement victorieuse. Déjà, dans l‟Antiquité, les animaux étaient utilisés pour prédire l‟avenir, leurs entrailles servant, par exemple, aux étrusques à anticiper le futur (à titre prévisionnel ou décisionnel). Art divinatoire, l‟haruspicine était légitimée par son utilité sociale, en cas de guerre par exemple, et le Sénat romain tenant en estime cette discipline étrusque, consultait davantage les haruspices que les augures pour des décisions complexes1303. Aujourd‟hui, les mascottes des sportifs constituent les nouveaux oracles et, indépendamment de l‟efficacité de leurs prévisions, leur utilité sociale demeure, à la fois anthropologique et économique. Incarnant « la nécessité du croire, du divertir et du vendre » 1304, ces animaux investis de pouvoirs traduisent un besoin ludique dont seules les formes diffèrent. Dans le contexte des sociétés modernes, l‟ouverture médiatique participe sans doute de l‟importance des influences superstitieuses en relayant au plus grand nombre des croyances venues de partout dans le monde. Des prédictions météorologiques aux martingales, en passant par les pronostics sportifs, ces pratiques forment un système « insolite de divination » 1305 dont la fonction principale est de créer du lien entre les adhérents à la divertissante croyance. Reliés au quotidien par une superstition commune, des individus du monde entier partagent l‟activité dans laquelle la foi est investie. Dans le milieu footballistique, l‟icône de Paul le poulpe (malgré la mort de l‟animal en 2010) rassemble les supporters au-delà de leurs préférences de clubs et instaure une relation dépassant les frontières géographiques ou culturelles. Participant d‟un événement fédérateur et instigateur de cohésion nationale tel le football, l‟animal dépasse la marchandise et la médiatisation marketing. La relation instaurée est purement ludique, relevant du divertissement avant tout. Dépourvue de valeur symbolique, la mascotte n‟en conserve pas moins cette fonction grisante d‟injecter « un instant sacré dans la continuité du temps prévisible »1306. Dans une société rationalisée, s‟en remettre à un mollusque pour établir des pronostics est totalement aberrant, même si une relative intelligence lui est généralement accordée. Et c‟est le manque de sérieux de l‟opération divinatoire par un céphalopode qui suscite l‟adhésion. Ce grain de folie opère une rupture ludique réjouissante avec l‟austérité du monde habituel, prudent et raisonnable. Néanmoins, dans un contexte social consommatoire, la nature ludique de la croyance se
1303 Cf. Vinciane Pirenne-Delforge et Francesca Prescendi (2011), « La divination à Rome », Les Religions grecque et romaine, in http://elearning.unifr.ch/antiquitas/fiches.php?id_fiche=27. 1304 Patrick Legros (2012), « EURO 2012. 483 - confond avec son usage marchand, « les deux fonctions de la distraction et du mercantilisme n'étant jamais éloignées l'une de l'autre »1307. Le besoin de croire s‟illustre dans tous les domaines de la vie sociale, de la physique et de la médecine aux compétitions sportives et aux jeux de hasard, véhiculé par des superstitions de toute sorte et incarné par divers talismans de toute nature (pierres, vêtements, animaux, plantes ou pièces de monnaie). Les divers objets porte-chance déjà aperçus au cours de l‟étude en témoignent au quotidien et, dans le jeu d‟aléa spécifiquement, l‟utilisation des martingales s‟avère davantage typique de la pratique. Moins passif qu‟en ayant recours à un instrument subalterne pour amener une issue favorable à son jeu, le joueur agit aussi plus activement en établissant des calculs basés sur des méthodes statistiques. Pour autant, ces techniques de jeux n‟ont aucune efficacité, toutes savantes soient-elles, mais elles stimulent l‟acteur dans son activité. B.1. La superstition au service des joueurs de la FDJ
Pour étudier les fonctions des superstitions dans notre vie sociale occidentale, le terrain des jeux s‟est concentré sur le domaine des loteries de la FDJ et l‟étude consiste à saisir les usages superstitieux des joueurs et de la société commerciale. En tant que source d‟espoir, les superstitions offrent des possibilités illimitées dépassant les limites du savoir scientifique et des cadres de la rationalité. La pratique du jeu de hasard s‟appuyant largement sur cette dimension, les superstitions devient un enjeu majeur pour les vendeurs dont l‟offre de produit doit répondre à la demande des joueurs. Les deux acteurs constituant cette pratique ludique de la loterie sont étudiés autour de leurs différentes concrétisations des superstitions, qu‟elles soient matérialisées en fétiches et signes astraux ou en stratégies de jeu. Car si l‟on pense souvent aux symboles de chance et de bonne étoile invoqués passivement par le joueur, le principe de la martingale occupe aussi une place importante dans la pratique ludique, créant une dynamique active complémentaire. B
.1.1.
La martingale Appliquée au domaine des jeux de hasard, la martingale désigne une stratégie de « risque zéro » relevant du calcul probabiliste, a priori éloigné du champ des croyances supposé par le phénomène des superstitions. En fait, la stratégie la plus classique de la martingale (dite de 1307 Ibid. « d‟Alembert » mais d‟origine beaucoup plus ancienne) consiste, dans un jeu de pile ou face, à toujours parier sur pile, en doublant systématiquement la mise précédente en cas d‟échec et cela jusqu‟au coup gagnant qui marque l‟arrêt du jeu. Suivant cette logique, le gain obtenu rembourse obligatoirement la mise de départ et le risque est nul. Mais encore faut-il être sûr de gagner à un moment donné et la technique réclame une fortune préalable pour pouvoir poursuivre même en cas d‟échecs successifs : « Pour pouvoir utiliser sans risque une telle stratégie, il faut être riche ; si on ne dispose que d'une fortune finie, la probabilité de gagner n'est plus égale à 1. »1308 Dans la pratique, les joueurs ne disposant pas d‟une fortune infinie, adaptent plus ou moins ce système et en arrivent à inventer leur propre martingale. À titre d‟exemple, on citera la combinaison du joueur de Loto qui conserve seulement du principe statistique l‟idée selon laquelle le succès repose sur l‟application rigoureuse d‟un même schéma de jeu, en cas de gain comme en cas de perte. À cet égard, l‟acception usuelle du mot « martingale » est éloquente : « Combinaison basée sur le calcul des probabilités au jeu. Inventer, suivre une martingale. »1309 Brève, la définition ne pourrait pas être plus complète dans le sens où elle met en valeur les deux rationalités s‟entrecroisant dans l‟usage de la martingale. Constituant la grille de lecture permettant de comprendre l‟usage de cette superstition particulière, la dualité de la connaissance (par calcul et par imagination) traverse la pratique ludique dans son ensemble. Car si, en théorie, la martingale est une stratégie probabiliste rationnelle, son usage révèle une dimension beaucoup plus irrationnelle qui place directement du côté de la croyance superstitieuse. Sur le terrain, les joueurs l‟utilisent autant dans leur invention de la combinaison que dans leur obstination à la suivre, tout en sachant bien que le jeu auquel ils participent repose uniquement sur le hasard. Or, la FDJ Ŕ détentrice du monopole des jeux de loterie en France Ŕ a bien saisi cette dynamique et ne manque pas de la susciter en naviguant entre une rationalité clairement économique et une autre d‟ordre beaucoup plus symbolique. 1308 Pierre Crépel, Jean Memin et Albert Raugi (20008), « Théorie des martingales », in Encyclopaedia Universalis, op. cit., Corpus 15, p. 399. 1309 Alain Rey (sous la dir. de) (1991), Le Robert. Dictionnaire d'aujourd'hui, Paris, p. 623. - B.1.2. Les joueurs et la martingale
La martingale consiste en un calcul probabiliste soutenant l‟intégralité de la théorie des probabilités, branche probablement la plus récente des mathématiques et longtemps cantonnée à l‟étude des jeux de hasard, « le certain étant de l'aléatoire dont la réalisation a une probabilité égale à 1 »1310. Toutefois, ce n‟est qu‟au début du XVIIIe siècle, chez Abraham de Moivre1311, que cette acception du mot apparaît. Avant cela, au XVe siècle, le mot désignait la courroie de harnachement du cheval qui relie la sangle à la muserolle pour empêcher l‟animal de trop lever la tête1312. Encore, on le retrouvait en 1491 dans le langage de la chaussure pour qualifier une chausse munie d‟un pont à l‟arrière1313. Enfin, dans le domaine vestimentaire, il s‟agit d‟une bande de tissu, placée horizontalement dans le dos d‟un vêtement, à hauteur de la taille ; on parle ainsi de veste ou de manteau à martingale. Aussi est-il intéressant de constater que, malgré la différence des domaines d‟utilisation du terme, une analogie persiste à travers la notion de lien attachant un objet qu‟il s‟agit de neutraliser, de discipliner contre son mouvement naturel. Qu‟il s‟agisse du vêtement, de la chausse ou du cheval, la logique est toujours la même et il n‟en va pas autrement de la martingale au jeu qui consiste bien à « brider » le hasard. Non seulement, il s‟agit de se montrer supérieur à lui, mais encore de s‟en protéger au moyen principalement de la croyance. Dans ce contexte, le superstitieux est celui qui ne sait pas tout, au sens rationnel du terme, et le joueur se confrontant à l‟inconnu est alors le « fou » que la litt rature des Lumières fustigeait comme prisonnier de ses « passions ». Depuis René Descartes, la morale associant « passions » et « folie » se veut persistante. Maladies de l‟âme pour Louis de Jaucourt dans l‟Encyclopédie, elles sont encore ce déséquilibre des quatre humeurs identifiées par la médecine hippocratique1314 et qui finit par « tuer la raison »1315. Assurément, le hasard éveille des craintes qui fournissent un terreau fertile aux pulsions du joueur qui s‟y confronte. C‟est pourquoi les critiques formulées par Jean Barbeyrac en 1702 s‟avéraient particulièrement justes dans leur perception du mélange d‟émotion à l‟oeuvre dans la pratique du jeu. Considérant ces joueurs exclus de toute vie sociale par leurs « superstitions » et ce goût du vénal les menant inéluctablement à leur perte, le juriste pointait la combinaison des émotions :
1310 Daniel Dugué (2008), « Calcul des probabilités », in Encyclopaedia Universalis, op
.
cit., Corpus 19, p
.
759. Cf. Abraham de Moivre (2000), The Doctrine of Chance, New York, Chelsea (1re éd. anglaise : 1718). 1312 Cf. Pierre Crépel et al. (2008), op. cit. 1313 On trouve notamment
cette acception dans la littérature de
François Rabelais
, in François Rabelais (2009), Gargantua, Paris, Pocket, pp. 166-171 (1re éd. : 1535). 1314 Cf. Michel Foucault (1974), Histoire de la folie, Paris, Plon, p. 107. 1315 Jean-François Butini (1774), Traité du luxe, Genève, E. Bardin, p. 280.
1311
- 486 - « le Désir, la Crainte, l'Espérance
,
le Chagrin
,
la Joie
,
le Dépit
,
le Regret »
1316
. Depuis, cette moralisation du jeu, de ses passions et de ses croyances superstitieuses, persiste dans les fondements théoriques positivistes et utilitaristes. Non seulement le jeu de hasard est perçu comme dangereux parce qu‟il repose sur une logique de « surplus » incompatible avec celle de l‟échange économique capitaliste 1317, mais encore, anti-méritocratique, il contrarie les valeurs laborieuses et renverse les hiérarchies. Le bonheur social, reposant sur un quotidien « assaisonné par le travail », ne peut se laisser aveugler par les « petits météores [de l‟aléatoire] que l'on voit briller un jour et disparaître le lendemain »1318. De la même façon, en suivant la configuration d‟un joueur affrontant son adversaire « hasard », le principe de la martingale rappelle les surenchères du potlatch dans le système du don. Mauss, réservant ce nom aux « prestations totales de type agonistique », insistait non seulement sur la notion de la lutte au sein du contrat liant les deux parties et que nous retrouvons explicitement dans notre cas, mais encore soulignait cette logique de surenchère dans les prestations et contre-prestations qui s‟engagent « sous une forme plutôt volontaire »1319. Le cas de la loterie réunit tout à fait les éléments du potlatch, des rites de superstitions aux enjeux économiques (que ce soient ceux du joueur ou ceux de la FDJ), en passant par la dimension politique que ne manquent pas de rappeler les nombreux procès intentés contre la FDJ en matière de responsabilité pathologique. De plus, comme le précisait encore l‟anthropologue, ces échanges ne se réalisent jamais entre deux individus mais entre « personnes morales » pouvant être représentées par leur chef dans les situations d‟affrontement, mais n‟en conservant pas moins un statut collectif, donc social. Là encore, la dimension collective du jeu de loterie s‟illustre par le principe même de la cagnotte qui se constitue des mises de la grande collectivité des joueurs. Même s‟il est pratiqué par un individu isolé, le jeu conserve cette dynamique de groupe inexorablement insufflée par son fonctionnement concret. D‟ailleurs, les observations révèlent que les jeux de tirages de la FDJ1320 sont encore ceux qui s‟effectuent le plus souvent en groupe. En famille, entre amis, avec des collègues de travail, on choisit ensemble les numéros qui constituent la grille et on partage tout autant les gains que les déceptions en cas d‟insuccès. Le jeu à tirage instantané
1316 Jean Barbeyrac (1737), Traité du Jeu, op. cit., pp. 280-298. Jacques Godbout (1944), L'Esprit du don, Paris, La Découverte, p. 302. 1318 Jean-François Butini (1774), Traité du luxe, op. cit., p. 105. 1319 Marcel Mauss (2001), « Essai sur le don », op. cit., p. 153.
1320 Par opposition aux jeux de grattage et de pronostics sportifs également proposés par la FDJ, les jeux de tirages sont directement hérités du système de la loterie. 1317 - 487 - Rapido paraît même être une véritable invitation à la sociabilité en se pratiquant uniquement dans des lieux publics (café, bars, boutiques FDJ).
B.1.3. Dynamique sociale de la superstition
Un système d‟interaction constitue le contexte social de la pratique ludique, tel que le formalisait Goffman dans les années 1970 et il convient de considérer les rôles que chaque protagoniste s‟applique à tenir, conformément aux normes sociales. Cependant, parce que ces normes sont ambivalentes, que les rôles varient et interfèrent au cours d‟une même action et malgré « le degré de minutie avec lequel les institutions définissent les éléments d'un système de rôles, cette minutie n'est jamais suffisante pour priver l'acteur social de toute marge d'autonomie »1322. Le jeu de hasard et la superstition Ŕ à plus forte raison la superstition dans le jeu Ŕ s‟incarnent absolument dans ce modèle de la marge d‟autonomie. D‟abord, notre société Ŕ valorisant le travail Ŕ condamne traditionnellement le jeu de hasard. Que ce soit dans la sphère privée ou publique, choisir de s‟adonner à un jeu socialement déprécié et, en plus, en faisant usage de superstitions, revient à opter pour un mode de connaissance en marge de celui qui domine et répond, en ce sens, au principe de « rationalité limitée » menant les agents sociaux à « se jouer » des contraintes inhérentes à leur contexte d‟action1327. On peut, dès lors, identifier le ludisme comme résultant du plaisir d‟évasion que procure ce choix au niveau individuel. Au niveau collectif, on peut y voir, avec Denise Jodelet, la volonté de différenciation d‟une catégorie d‟individus cherchant à se distinguer des autres afin de créer sa propre identité de groupe 1328. Plus encore, nous serions tentée d‟appréhender le Loto comme une tâche que se donnerait à accomplir la collectivité des joueurs. Dans ce cadre, le problème est de réussir à gagner le tirage au sort et, comme dans ce domaine les connaissances sont limitées, la meilleure solution est la créativité. La tâche se présente comme résolution du problème et les acteurs mettent en jeu des processus cognitifs adaptés à ce type d‟épreuve. Les superstitions en seraient le résultat, devenant alors des représentations sociales élaborées par la collectivité face au hasard, « tâche qui ne prend pas en compte la réalité de sa structure fonctionnelle »1329. Utilisée par le joueur pour lui-même, comme croyance personnelle et comme représentation sociale, la superstition fait partie de la pratique du jeu. Gage de simplicité et de création ludique, elle constitue un argument de vente majeur pour la FDJ dont nombre des techniques commerciales consistent à valoriser le symbole positif de chance. B.2. La FDJ et les superstitions : l'industrie de la chance
En premier lieu, l‟emblème de la société est un trèfle à quatre feuilles, symbole de chance qui requiert majoritairement l‟adhésion des Français en matière de superstitions1330. En outre, ce logo est constamment présenté aux couleurs du drapeau français ; que le trèfle soit blanc sur fond bleu ou l‟inverse, il possède toujours un même petit rectangle rouge (dans le coin intérieur de la foliole droite) complétant la triade des teintes nationales. Par ce biais, la FDJ rappelle qu‟elle est, historiquement, au service de sa patrie en sa qualité d‟héritière de la « Loterie Nationale », institution créée par l‟État en 1933 au profit des anciens combattants et des calamités agricoles, dans la cadre de l‟article 136 de la loi de Finances du 31 mai de cette 1327 Cf. Herbert Simon (1991), Rationality
in
Political Behaviour, Pittsburg, Carnegie Mellon University
.
Denise Jodelet (1996),
« Rep
résent
ation
sociale : phénomènes, concepts et théorie », in Serge Moscovici
(
sous la dir. de), Psychologie sociale, Paris, PUF, p. 365 (1re éd. : 1948). 1329 Ibid. 1330 Cf. le sondage TNS Sofres, op cit., p. 12.
1328
- 489 - même année. Le billet de la première loterie tirée en 1933 illustre cette idéologie nationaliste. Les principaux symboles de la République française y figurent : le coq, les couleurs bleublanc-rouge et Marianne déployant ses ailes de la Liberté et brandissant l‟étendard national : Illustration 66
:
Idé
ologie
nationaliste du premier ticket de
loterie Encore aujourd‟hui, le jeu du Loto, ancêtre le plus direct de cette société, est le seul produit de la FDJ dont le logo conserve uniquement ces trois couleurs à travers époques et quel que soit le design de ses lettres (lettres inscrites dans des ronds ou des carrés selon les campagnes publicitaires). Ensuite, le slogan de la FDJ, « Tous les rêves ont leur chance », est révélateur de la dynamique dans laquelle la société commerciale s‟inscrit. Les points de suspension soulignent le sentiment d‟ouverture donné par l‟espoir (la formule n‟est pas close) et invitent en même temps à poursuivre dans cette voie de la croyance en la bonne fortune. Le vocabulaire, les termes « rêves » et « chance » légitiment le symbole du trèfle et rappellent la polarité positive de l‟aléa. Cette référence au hasard remplit la fonction essentielle de supposer l‟égalité entre tous les hommes et renforce l‟idée de service des valeurs républicaines, tout en évoquant celles de liberté et de fraternité complémentaires à la formule. Tandis que le statut social détermine le parcours de vie d‟un individu dans l‟espace social courant, les jeux de la FDJ entravent les compétences et mobilisent plutôt des notions rétablissant une parfaite égalité des chances entre les hommes. De cette manière, le jeu s‟adresse directement à la personne et l‟invite à déjouer la statistique, mobilisant la croyance au détriment du raisonnement et préférant la martingale au calcul. La chance est-elle bien comprise comme le symbole de référence au heureux hasard, par opposition à la définition probabiliste établissant le faible pourcentage de gain d‟un joueur, à - 490 - savoir une chance sur vingt-et-un millions d‟empocher le jackpot du Loto1331. Ce discours pragmatique est celui d‟un « briseur de jeu » selon l‟expression consacrée par Caillois à propos des jeux de simulacres, car dénoncer l‟absurdité des règles rompt tout l‟enchantement émanant, justement, de la « conscience de l'irréalité foncière du comportement adopté » et qui sépare le joueur de la vie courante1332. Pourtant, la FDJ n‟élude pas totalement la statistique mais la propose plutôt à ses joueurs, sachant que ces données leur servent à établir des martingales. La campagne marketing menée par l‟agence Mc Cann de 1991 à 1993 utilisait avec ironie ce paradoxe de la manipulation des statistiques par les joueurs, rappelant qu‟au Loto « 100 % des gagnants ont tenté leur chance » 1333. Sur son site Internet, elle propose une rubrique intitulée « palmarès des numéros » o sont présentés des tableaux référençant les numéros des boules du Loto, leur nombre de sorties en pourcentages, les dates des dernières sorties et l‟écart entre les différents tirages. Néanmoins, ces références ne figurent pas sur les bulletins de jeu et ne sont pas souvent vantées dans les publicités. L‟attention se porte moins sur la constitution pseudoprobabiliste de martingale que sur l‟appropriation et l‟identification des joueurs à leurs numéros. - de « faire son Loto » tous les lundis, mercredis et samedis. Même les opérations ponctuelles, marquant des événements exceptionnels tels que les vendredis 13, finissent par entrer dans ce rituel. La campagne publicitaire déployée depuis le lancement du nouveau tirage du lundi en est un exemple frappant1334. Entrée en vigueur le 5 novembre 2008, cette nouvelle fréquence du Loto, le faisant passer de deux tirages hebdomadaires à trois, vise à renforcer l‟ancrage du produit dans les usages des joueurs. Un spot publicitaire radiophonique met en scène un joueur téléphonant au service client du Loto pour lui faire part de son dégoût du lundi, ce jour de la semaine où tout le monde se remet dans ce « train-train » maussade du quotidien. Jouant sur l‟effet de paradoxe entre la routinisation du jeu et le besoin d‟extra-quotidienneté auquel il répond, le joueur de la publicité commence par dénigrer la routine et remercie le Loto de briser ce quotidien peu réjouissant. Se renseignant sur la dimension exceptionnelle de l‟événement, il est finalement informé de la mise en place hebdomadaire du tirage, et s‟enthousiasme de la « bonne nouvelle », plaisantant sur ce « train-train de première classe » offert par le Loto 1335. Reprenant à son compte l‟opposition jeu/travail, le communiquant corrobore finalement l‟impression d‟inaccoutumée recherchée par le joueur. Grâce au jeu, le morne quotidien supposé par le rythme du travail et ses contraintes se trouve embelli et devient plus supportable. Répondant à l‟objectif de fidélisation de ses clients, la loterie met en oeuvre une technique de « routinisation » du jeu dans le quotidien. Le paroxysme de cette stratégie marketing est atteint avec l‟offre d‟abonnement qui propose de jouer iquement la combinaison du client, à chaque tirage, pour une durée de une à cinq semaines. Néanmoins, si elle se veut purement mercantile, cette option est aussi, pour le joueur, la garantie de ne manquer aucun tirage, au cas où un malheureux coup du hasard ferait sortir ses numéros le jour où il n‟a pas joué. Superstitieux, le joueur tente de se prémunir du mauvais sort et s‟il évoque l‟habitude, c‟est parce qu‟il n‟interprète pas lui-même son acte de façon consciente.
| 15,804
|
12/hal.uca.fr-hal-01813493-document.txt_1
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 3,655
| 6,149
|
Il peut sembler périlleux d'associer les ouvrages de Bachelard et les Métamorphoses d'Ovide, surtout si l'on se rappelle que le premier, dans Lautréamont, qualifie de « froid et formel » le mythe de la métamorphose tel qu'il apparaît dans l'oeuvre ovidienne1. Nous ne ferons donc ni une lecture bachelardienne des Métamorphoses, ni une lecture ovidienne des oeuvres de Bachelard, mais nous tenterons de faire « réagir », au sens chimique du terme, le grand poème de la métamorphose avec cette affirmation de Bachelard dans La Psychanalyse du feu : « Par le feu tout change. Quand on veut que tout change, on appelle le feu. »2 Bachelard a affirmé maintes fois l'importance symbolique et littéraire de la métamorphose, et l'on peut percevoir, par-delà les siècles, une parenté profonde entre l'idée que « la matière est l'inconscient de la forme »3 et qu'il existe une « poésie dynamique » où « les choses ne sont pas ce qu'elles sont » mais « ce qu'elles deviennent »4, et la poésie ovidienne de la métamorphose. Les « forces imaginantes »5 à l'oeuvre dans le poème d'Ovide ne sont pas puisées dans un seul élément, mais, également, dans les quatre, ce qui permet de définir les Métamorphoses comme une totalité des possibilités de l'imagination matérielle : quatre éléments, qui ont donné à certains des plus beaux livres de Bachelard leur nom et leur orientation, forment même le socle philosophique des Métamorphoses, puisque la transformation permanente de l'univers ovidien est due à la combinaison de l'eau, de la terre, de l'air et du feu6. Nous explorerons ici, à travers quelques exemples, la relation entre le feu et la métamorphose dans le poème d'Ovide. Cette relation nous semble prendre trois formes principales : le feu intervient soit comme un substitut de la métamorphose, dans des passages où celle-ci, étonnamment, ne se produit pas, soit comme son élément déclencheur, soit enfin comme son résultat, quand un personnage devient feu, accédant ainsi à l'immortalité. 1 Lautréamont, Corti, 1986, p. 39. La Psychanalyse du feu, Gallimard, 2000, p. 102. 3 L'Eau et les Rêves, Corti, 1942, p. 70. 4 Ibid., p. 66. 5 Ibid., p. 1. 6 Cf. notamment XV, 237 sq. 2 H. Vial -2- I.
Dans ce poème qui dit inlassablement la transformation, on a parfois l'impression qu'il « manque » une métamorphose. C'est le cas, aux livres I et II, dans l'aventure tragique de Phaéthon, ce jeune homme qui meurt foudroyé parce qu'il a voulu donner la preuve de ses origines en conduisant le char du Soleil, son père. Dans ce long cycle narratif, la métamorphose est omniprésente. Au moment où Phaéthon parcourt le ciel sur le char de son père, le monde entier, devenu la proie des flammes, subit une inversion de toutes ses qualités et se trouve placé dans un état oxymorique qui évoque le déchirement des personnages métamorphosés. Après la mort de Phaéthon, son entourage est emporté par la douleur dans un véritable tourbillon de métamorphoses : ses soeurs, les Héliades, deviennent des arbres, son ami Cygnus un cygne ; son père lui-même s'éclipse littéralement, plongeant l'univers dans les ténèbres. Mais Phaéthon, lui, ne se métamorphose pas, et sa mort est le lieu d'un véritable tour de passe-passe poétique, car Ovide, à la place de la métamorphose attendue, se livre à une comparaison : At Phaethon, rutilos flamma populante capillos, Voluitur in praeceps longoque per aera tractu Fertur, ut interdum de caelo stella sereno, Etsi non cecidit, potuit cecidisse uideri.7 Nous assistons ici à une explosion du corps qui ressemble, nous dit Ovide, à la chute elle-même illusoire d'une comète. La fragilité de la frontière entre mort et métamorphose est d'autant plus grande que, si Phaéthon ne se métamorphose pas, l'épisode « compense » cette absence par un certain nombre de substituts : embrasement universel, foudroiement du jeune homme, comparaison avec l'étoile filante. Le destin de Phaéthon est donc saturé par les suggestions d'une métamorphose que son corps ne subit pas, des suggestions qui sont presque toutes liées à l'élément feu. On pourrait évoquer, en lien avec la légende de Phaéthon, celle d'Icare8, où c'est le feu du Soleil qui, en faisant fondre les ailes de cire du jeune homme, se substitue à la transformation. Mais il existe un cas plus spectaculaire encore : celui de Méléagre, dont le destin a été associé par les Parques, à sa naissance, au destin d'un morceau de bois. Devenu adulte, Méléagre tue ses oncles ; sa mère, Althée, inconsolable, jette dans les flammes le morceau de bois auquel est associée la vie de son fils, le condamnant ainsi à mourir dans 7 « Phaéthon, sa chevelure rutilante ravagée par la flamme, roule précipité à travers les airs, où il laisse en passant une longue traînée, semblable à celle que produit parfois une étoile au milieu d'un ciel serein, lorsque sans tomber en effet, elle peut paraître tomber. » (II, 319-322). La traduction est celle de G. Lafaye, revue par J.P. Néraudau, Gallimard, 1992. 8 VIII, 183-235. H. Vial -3- d'atroces souffrances, dévoré de l'intérieur par un feu invisible au fur et à mesure que le morceau de bois se consume : Aut dedit aut uisus gemitus est ille dedisse Stipes et inuitis correptus ab ignibus arsit. Inscius atque absens flamma Meleagros ab illa Vritur et caecis torreri uiscera sentit Ignibus ac magnos superat uirtute dolores. Quod tamen ignauo cadat et sine sanguine leto, Maeret et Ancaei felicia uulnera dicit ; Grandaeuumque patrem fratresque piasque sorores Cum gemitu sociamque tori uocat ore supremo, Forsitan et matrem. Crescunt ignisque dolorque, Languescuntque iterum ; simul est extinctus uterque Inque leues abiit paulatim spiritus auras, Paulatim cana prunam uelante fauilla.9 Le meurtre du fils par la mère est ici d'autant plus cru qu'il se fait de façon métonymique : Althée ayant jeté dans le feu le « tison funeste »10, le corps de Méléagre, rongé de l'intérieur « par un feu aveugle », se consume tandis que la bûche est réduite en cendres. Comme Phaéthon, Méléagre ne se métamorphose pas, mais meurt par le feu ; comme lui, il recevra une épitaphe près de laquelle ses soeurs finiront par se transformer, perdues dans un deuil indépassable. C'est donc, ici encore, le feu qui se substitue à la métamorphose, transformant le corps d'une manière d'autant plus terrible qu'elle est lente et progressive. La combustion intérieure de Méléagre est décrite par Ovide comme une métamorphose : le morceau de bois a des réactions quasi humaines lorsqu'il est jeté au feu ; inversement, Méléagre est à la fois lui-même et le morceau de bois, et Ovide emploie à son sujet le mot absens, ce qui apparente sa mort à une métamorphose, état intenable d'un être à la fois présent et absent à lui-même. II. Au contraire, dans le récit de l'apparition des Memnonides, la métamorphose a bien lieu et c'est le feu qui lui sert d'aliment : Memnonis arduus alto Corruit igne rogus nigrique uolumina fumi Infecere diem, ueluti cum flumina natas 9 « Le bois lui-même exhala ou sembla exhaler des gémissements, quand il devint la proie des flammes qui le dévoraient à regret. Sans en rien savoir et quoique éloigné, Méléagre brûle du même feu ; il sent ses entrailles consumées par ce brasier caché et il surmonte à force de courage ses horribles souffrances. Mais, en se voyant succomber à une mort inutile, sans avoir versé son sang, il se désole, il nomme une faveur du sort le coup qui frappa Ancée ; sa voix mourante appelle en gémissant son vieux père, ses frères, ses tendres soeurs, la compagne de sa couche, peut-être même sa mère. Ses douleurs augmentent en même temps que les flammes, puis elles vont s'affaiblissant ; les unes et les autres s'éteignent à la fois ; peu à peu son souffle s'échappe dans l'air léger, pendant que peu à peu une cendre blanche recouvre les charbons.
» (
VIII, 13-26).
10 Funereum torrem (VIII, 512). H.
Vial -4- Exhalant nebu
las
,
sol admittitur infra ; Atra fauilla uolat glomerataque corpus in unum Densetur faciemque capit sumitque calorem Atque animam ex igni ; leuitas sua praebuit alas Et primo similis uolucri, mox uera uolucris Insonuit pennis ; pariter sonuere sorores Innumerae, quibus est eadem natalis origo.11 Du bûcher où se consume le cadavre de Memnon naissent, comme en une offrande funèbre, d'innombrables oiseaux qui, à peine sortis du néant, se livrent un combat meurtrier. L'issue de la métamorphose est donc ambiguë : c'est une naissance suivie d'une seconde mort qui commémore la première, mais ce sera aussi, à long terme, une renaissance, puisque cette scène se répètera tous les ans. Cette transformation est profondément originale, car elle substitue au corps initial non pas un autre corps, mais une multitude d'êtres nouveaux, et ces derniers, aussitôt annulés au terme d'une obscure guerre civile, entrent ensuite dans un processus cyclique qui ne relève plus de la métamorphose proprement dite. Celle-ci se limite au moment où, de l'écroulement du bûcher, s'envolent des cendres qui subissent ensuite un mystérieux processus d'agglomération et de condensation. Cet effondrement suivi d'un jaillissement contient le symbolisme de mort et de renaissance qui domine l'ensemble du texte. Un rôle similaire revient à l'image de l'écran formé par la fumée, qui fait tomber la nuit en plein jour, image redoublée par celle du voile de brume au-dessus d'un fleuve : cette comparaison oxymorique, qui rapproche le feu et l'eau jusqu'à faire d'eux, par la magie des sonorités, presque l'anagramme l'un de l'autre (uolumina fumi, flumina), suggère qu'un bouleversement fusionnel des éléments est en train de se produire derrière le rideau noir, et que tout, à cet instant, est susceptible de s'inverser magiquement. C'est de la mort même, ou de son résidu impalpable, que s'élève alors la vie. Ce qui jaillit est d'abord impossible à identifier : comme souvent, le poète semble captivé par le dégagement même de la forme et le récit reste suspendu dans cette fascination de l'entre-deux. L'image de l'oiseau n'émerge qu'avec l'expression primo similis uolucri, mox uera uolucris. Le claquement sonore des plumes, bientôt amplifié par la naissance simultanée d'une nuée d'oiseaux identiques, semble célébrer a l'achèvement de la métamorphose, et du texte, que la gloire du héros mort. Dans ce passage énigmatique où la mort et la vie semblent, au sein de l'élément feu, équivalentes et réversibles, le fracas final des Memnonides sonne comme une définition du 11 « Le grand bûcher de Memnon, dont les flammes s'élevaient vers le ciel, s'écroule de toute sa hauteur et des tourbillons d'une fumée opaque obscurcissent le jour, semblables à ces brouillards qui se dégagent du sein des fleuves, interceptant les rayons du soleil. Des cendres noires s'envolent, puis s'agglomèrent et se condensent jusqu'à former un corps qui reçoit du feu la chaleur et la vie ; leur légèreté lui a donné des ailes ; d'abord c'est un être semblable à un oiseau, bientôt après, c'est un oiseau véritable, qui agite ses plumes avec un grand bruit ; il est imité par des oiseaux innombrables, ses frères, qui ont la même origine. » (XIII, 600-609). H. Vial -5- poème lui-même, tel qu'Ovide le décrira dans l'épilogue des Métamorphoses : un son à la fois unique et multiple, qui s'élancera loin au-dessus du bûcher funèbre du poète pour célébrer sa gloire et renaître à chaque lecture12. Un autre épisode voit l'air et le feu se combiner pour susciter la métamorphose : au livre XIV des Métamorphoses, Hersilie, l'épouse de Romulus, est enlevée par un astre qui, telle une étoile filante, s'abat sur terre, embrase sa chevelure et, dessinant à l'envers la silhouette d'une comète, l'entraîne au ciel où elle retrouve son époux13. Inversion triomphante de la course tragique de Phaéthon, le voyage d'Hersilie donne lieu à une scène fantastique au terme de laquelle « l'amour, la mort et le feu sont unis dans un même instant »14 ; mais nous ne nous y attarderons pas, car le feu n'y apparaît que comme un moyen matériel – certes original et luxueux – de propulsion spatiale. III. « Dans le sein du feu, la mort n'est pas la mort ». Cette phrase de Bachelard15 pourrait être une belle définition des épisodes des Memnonides et d'Hersilie ; mais elle semble surtout pouvoir caractériser les récits où Ovide nous montre un personnage se transformant en feu et, par là même, en divinité. Nous laisserons de côté la métamorphose de la couronne d'Ariane en une constellation16, car le feu ne s'y manifeste que sous la forme du scintillement stellaire né des pierreries, qui échappent à la vie terrestre et vont rejoindre les « épures » dessinées par le « rêve constellant »17. La couronne symbolise le corps même d'Ariane, mais surtout le fragment d'immortalité que les personnages ovidiens portent en eux et qui, seul, subsiste d'eux dans leur apothéose. Cette mystérieuse « part meilleure » de l'être est l'un des éléments centraux de l'apothéose d'Hercule : Interea quodcumque fuit populabile flammae Mulciber abstulerat ; nec cognoscenda remansit 12 XV, 871-879. « Là un astre tombe du haut des cieux sur la terre ; sa lumière met en flammes les cheveux d'Hersilie, qui s'envole avec l'astre dans les airs. Le fondateur de la ville de Rome la reçoit entre ses bras qu'elle connaît si bien ; il lui donne à la fois un autre corps et un autre nom ; il l'appelle Hora. C'est la déesse dont le culte est aujourd'hui associé à celui de Quirinus. » (XIV, 846-851).
14 G. Bachelard, La Psychanalyse du feu, p. 41. 15 Ibid., p. 42.
16 « Elle y était restée seule, exhalant mille plaintes, lorsque Liber vint la prendre dans ses bras et lui porter secours ; voulant répandre sur elle l'éclat d'un astre impérissable, il détacha la couronne dont elle parait son front et l'envoya au ciel. Celle-ci vole à travers les airs subtils ; dans son vol ses pierreries deviennent des étoiles aux feux étincelants, qui se fixent au firmament ; mais elles ont gardé la forme d'une couronne ; sa place est entre Nixus, l'Homme à genoux, et celui qui tient un serpent. » (VIII, 176-182).
17 G. Bachelard, L'Air et les Songes, Corti, 1943, p. 201.
13 H. Vial -6Herculis effigies, nec quicquam ab imagine ductum Matris habet tantumque Iouis uestigia seruat. Vtque nouus serpens posita cum pelle senecta Luxuriare solet squamaque nitere recenti, Sic, ubi mortales Tirynthius exuit artus, Parte sui meliore uiget maiorque uideri Coepit et augusta fieri grauitate uerendus. Quem pater omnipotens inter caua nubila raptum Quadriiugo curru radiantibus intulit astris. Sensit it met fin à un triptyque fondé sur l'élément feu : alors qu'Hercule entretient les flammes d'un sacrifice, on lui apporte de la part de son épouse Déjanire une tunique imbibée de ce qu'elle croit être un philtre d'amour. Mais c'est le venin de l'hydre de Lerne qui saisit et consume le corps du héros, répandant en lui un « surfeu surhumain, sans flamme ni cendre, qui portera le néant au coeur même de l'être »19, et d'autant plus torturant pour le héros qu'il lui reste incompréhensible, tout comme celui qui consume Méléagre (d'ailleurs frère de Déjanire). Pour mettre fin à ce supplice, Hercule s'immole sur un bûcher qu'il a élevé et sur lequel il semble trouver enfin la paix. Le corps d'Hercule est donc la proie d'une double combustion, et, en cet instant où « le feu se dévore lui-même » et où « la puissance se retourne contre soi », « il semble que l'être se totalise sur l'instant de sa perte et que l'intensité de la destruction soit la preuve suprême, la preuve la plus claire de l'existence. »20 Cette combustion conduit le héros à la mort, mais surtout à une apothéose dont le récit rassemble toutes les images du feu : comme dans l'épisode des Memnonides, la métamorphose jaillit littéralement du bûcher funèbre, et l'entrée d'Hercule dans le monde divin, rendue possible par l'action destructrice et purificatrice des flammes, est décrite comme une explosion de lumière culminant sur l'image finale d'un rayonnement astral. Comme un serpent dans sa mue, le héros abandonne aux flammes du bûcher son enveloppe mortelle et ne conserve que sa part immortelle, qui rejoint, au terme d'une ascension fantastique, la sphère divine, où il devient un dieu et s'installe parmi les astres. L'ensemble de récit décline donc le motif du feu : du brasier du sacrifice aux rayons émis par les étoiles, en passant par la brûlure du poison, la flamme du bûcher et l'éclat lustré d'une écaille de serpent toute neuve, le feu 18 « Cependant Mulciber a emporté tout ce que la flamme pouvait détruire ; rien n'est plus reconnaissable dans ce qui reste d'Hercule ; il n'a plus rien de ce qui rappelait sa mère et ne conserve que ce qui porte l'empreinte de Jupiter. Comme on voit un serpent rajeuni, lorsque avec sa peau il a dépouillé sa vieillesse, déployer sa vigueur et briller de tout l'éclat de ses é ailles neuves, ainsi le héros de Tirynthe, dégagé de son enveloppe mortelle, reprend vie dans la meilleure partie de lui-même ; il reparaît plus grand et revêtu d'une majesté auguste qui impose le respect. Le père tout-puissant l'enlève dans le creux d'un nuage, sur un char attelé de quatre chevaux et l'introduit au milieu des astres rayonnants. Atlas a senti ce poids nouveau » (IX, 262-273). 19 G. Bachelard, La Psychanalyse du feu, p. 138. 20 Ibid. H. Vial -7- apparaît sous toutes ses facettes, c'est-à-dire avec toutes ses contradictions. D'abord porteur de souffrance et de destruction, il devient l'élément du dépassement et de la renaissance. Ce rôle régénérateur se retrouve dans la divinisation de Jules César, ultime métamorphose du poème, qui est, elle aussi, à la fois divine et stellaire : suique Caesaris eripuit membris nec in aera solui Passa recentem animam caelestibus intulit astris ; Dumque tulit, lumen capere atque ignescere sensit Emisitque sinu ; luna uolat altius illa Flammiferumque trahens spatioso limite crinem Stella micat.21 L'apothéose de César intervient, comme celle d'Hercule, après une mort dont elle vise à compenser la violence et l'injustice. Les deux passages rassemblent, dans un espace narratif étroit fondé sur l'omniprésente image du feu, les principaux éléments constitutifs de presque tous les autres récits d'apothéoses. Le feu est à nouveau doté de sa fonction séparatrice : on retrouve ici l'image d'une division de l'être entre sa part mortelle et cette part meilleure, vouée à l'éternité, à laquelle Ovide donne pour la première fois un nom : animam. Cette part immortelle qui se dégage spontanément du corps semble fragile, puisque Vénus, de crainte qu'elle ne se dissolve dans les airs, choisit de l'apporter elle-même au ciel ; mais cette initiative demeurera inutile, car c'est seule que l'âme de César doit entreprendre son voyage céleste. Le feu préside à cet envol : Vénus, voyant l'âme de César s'illuminer et s'embraser, comprend que sa métamorphose est déjà à l'oeuvre et la libère. Ce qui s'enflamme n'est plus ici une chevelure, mais une âme, c'est-à-dire l'immatériel par excellence ; et, alors que les cheveux en flammes de Phaéthon le fais ressembler, dans sa chute, à une étoile filante, l'âme de César, est véritablement devenue, au terme de son voyage fantastique, une étoile, qui traîne dans son sillage quelque chose ressemblant, nous dit Ovide, à une chevelure On est donc passé d'une chevelure en flammes qui pouvait être prise pour une comète à une comète dont les flammes se prolongent en chevelure, et d'une comparaison cosmique et dramatique à une métaphore apaisée. Les épisodes d'Ariane, d'Hercule et de César illustrent toutes les contradictions du feu ; ces passages baignés de lumière racontent l'avènement, au terme d'un voyage aérien, d'un autre être, à la fois semblable et différent, car plus subtil, plus noble et promis à l'éternité. Cet avènement constitue le sujet même de l'épilogue des Métamorphoses, où nous 21 « Elle enlève du corps de son cher César l'âme qui vient de s'en séparer et, pour l'empêcher de se dissiper dans les airs, elle la porte au milieu des astres du ciel. Cependant elle s'aperçoit que cette âme s'illumine et s'embrase ; elle la laisse échapper de son sein ; l'âme s'envole au-dessus de la lune et, traînant après soi, à travers l'espace, une chevelure de flamme, elle prend la forme d'une étoile brillante. » (XV, 844-850). H. Vial -8- voyons le poète monter au ciel, divinisé par son oeuvre ; une troublante association se dessine alors entre le symbolisme du feu et le sens de l'acte poétique pour Ovide. Au début des Métamorphoses, le mystérieux « architecte du monde » (mundi fabricator22) qui sépare les uns des autres les quatre éléments prolonge ce geste inaugural en assignant à chaque composante de l'univers une place déterminée. Or, l'espace qui revient alors aux divinités et aux étoiles est l'éther, cette zone supérieure que son nom même définit comme le domaine du feu. On est donc tenté de penser qu'apothéoses et catastérismes, dans les Métamorphoses, sont dominés par l'élément feu, l'apparition des corps divins et sidéraux ne pouvant se faire que dans une explosion de lumière et de chaleur. Mais ce n'est pas le cas : le poème d'Ovide n'est pas réductible à la « doctrine tétravalente des tempéraments poétiques » définie par Bachelard dans La Psychanalyse du feu23, car il constitue une expérience poétique totale où s'entremêlent, en un jeu constant, les quatre pointes »24 de la rêverie poétique. Reste que l'élément feu occupe dans cette quadruple orientation une place d'autant plus remarquable qu'elle est, à tous points de vue, paradoxale. Le feu est l'élément transformateur par excellence : comme l'écrit Bachelard, « le feu suggère le désir de changer » et « seuls les changements par le feu sont des changements profonds, frappants, merveilleux, définitifs »25 ; pourtant, il n'intervient que dans un très petit nombre de métamorphoses, et les épisodes de Phaéthon et de Méléagre, poèmes du feu dans le poème, se caractérisent précisément par le fait que le personnage central n'est pas métamorphosé.
| 25,067
|
d76295b81afbf12e34a60e17f351cbdd_1
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,008
|
Représentations p-adiques cristallines et de de Rham dans le cas relatif
|
None
|
French
|
Spoken
| 7,519
| 15,033
|
Comité de rédaction
Jean BARGE
Charles FAVRE
Emmanuel BREUILLARD
Daniel HUYBRECHTS
Gérard BESSON
Yves LE JAN
Antoine CHAMBERT-LOIR
Laure SAINT-RAYMOND
Jean-François DAT
Wilhem SCHLAG
Raphaël KRIKORIAN (dir.)
Diffusion
Maison de la SMF
Case 916 - Luminy
13288 Marseille Cedex 9
France
[email protected]
Hindustan Book Agency
O-131, The Shopping Mall
Arjun Marg, DLF Phase 1
Gurgaon 122002, Haryana
Inde
AMS
P.O. Box 6248
Providence RI 02940
USA
www.ams.org
Tarifs
Vente au numéro : 27 e ($ 40)
Abonnement Europe : 255 e, hors Europe : 290 e ($ 435)
Des conditions spéciales sont accordées aux membres de la SMF.
Secrétariat : Nathalie Christiaën
Mémoires de la SMF
Société Mathématique de France
Institut Henri Poincaré, 11, rue Pierre et Marie Curie
75231 Paris Cedex 05, France
Tél : (33) 01 44 27 67 99 • Fax : (33) 01 40 46 90 96
[email protected]
•
http://smf.emath.fr/
© Société Mathématique de France 2008
Tous droits réservés (article L 122–4 du Code de la propriété intellectuelle). Toute représentation ou
reproduction intégrale ou partielle faite sans le consentement de l’éditeur est illicite. Cette représentation ou reproduction par quelque procédé que ce soit constituerait une contrefaçon sanctionnée par
les articles L 335–2 et suivants du CPI.
ISSN 0249-633-X
ISBN 978-2-85629-265-5
Directrice de la publication : Aline BONAMI
MÉMOIRES DE LA SMF 112
REPRÉSENTATIONS p-ADIQUES
CRISTALLINES ET DE DE RHAM
DANS LE CAS RELATIF
Olivier Brinon
Société Mathématique de France 2008
Publié avec le concours du Centre National de la Recherche Scientifique
O. Brinon
LAGA, Institut Galilée, Université Paris-Nord, 99 avenue J.B. Clément,
93430 Villetaneuse (France).
E-mail : [email protected]
Classification mathématique par sujets (2000). — 11F80, 11S25, 14F30.
Mots clefs. — Représentations galoisiennes, périodes p-adiques, cohomologie galoisienne, cohomologie cristalline, F -cristaux.
REPRÉSENTATIONS p-ADIQUES CRISTALLINES ET DE
DE RHAM DANS LE CAS RELATIF
Olivier Brinon
Résumé. — On définit et étudie les notions de faisceaux p-adiques lisses de de Rham et
cristallins sur des bases p-adiques « convenables ». On introduit pour cela des anneaux
de périodes p-adiques (analogues à ceux de J.-M. Fontaine), qui permettent de leur
associer des invariants de nature différentielle. Dans le cas de bonne réduction, on
obtient un foncteur pleinement fidèle de la catégorie des faisceaux p-adiques lisses
cristallins dans celle des F -isocristaux filtrés sur la fibre spéciale.
Abstract (Crystalline and de Rham p-adic representations in the relative case)
We define and study the notions of de Rham and crystalline smooth p-adic sheaves
over "suitable" p-adic bases. To do this, we introduce p-adic period rings (analogous
to those of J.-M. Fontaine), which are used to associate differential invariants to them.
In the good reduction case, we obtain a fully faithful functor from the category of
crystalline smooth p-adic sheaves in that of filtred F -isocrystals on the special fiber.
c Mémoires de la Société Mathématique de France 112, SMF 2008
!
TABLE DES MATIÈRES
1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
1
2. Notations, premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Soit K un corps de valuation discrète complet, de caractéristique 0, à corps résiduel k de caractéristique p. On note e ∈ N>0 l’indice de ramification absolu de K et
on fixe une uniformisante " de K. On suppose que k admet une p-base finie. Fixons
une clôture algébrique K de K et posons GK = Gal(K /K). On note v la valuation
de K , normalisée par v(p) = 1. Notons CK le complété de K pour v. L’action de GK
se prolonge à CK par continuité.
On s’intéresse à la catégorie RepQp (GK ) des représentations p-adiques de GK ,
dont les objets sont les Qp -espaces vectoriels de dimension finie, munis d’une action
linéaire et continue de GK , et dont les morphismes sont les applications Qp -linéaires
GK -équivariantes. Lorsque k est parfait (i.e. d = 0 avec les notations qui suivent),
tout ce qui suit est dû à Fontaine (cf. [29]).
Choisissons t1 , . . . , td ∈ OK des relèvements d’une p-base de k. Soit alors OK0 le
sous-anneau de OK tel que OK0 est un anneau de Cohen pour k et t1 , . . . , td des
éléments de OK0 . On pose K0 = OK0 [p−1 ] : on a alors OK = OK0 ["]. On se fixe un
! le module des différentielles
relèvement σ : OK0 → OK0 du Frobenius de k. On note Ω
continues de OK0 relativement à Z :
! = lim Ω1
Ω
/pn Ω1OK / Z.
0
←− OK0 / Z
n>0
! est libre de base (dti )1≤i≤d . On définit alors un (ϕ, ∇)-module filtré
Le OK0 -module Ω
sur K relativement à K0 comme étant un K0 -espace vectoriel de dimension finie D
muni des structures supplémentaires suivantes :
2
CHAPITRE 1. INTRODUCTION
1) un opérateur de Frobenius ϕ : D → D qui est σ-linéaire et dont le linéarisé
σ ∗ D → D est un isomorphisme ;
! pour laquelle le
2) une connexion intégrable quasi-nilpotente ∇ : D → D ⊗OK0 Ω
Frobenius est horizontal ;
3) une filtration décroissante séparée exhaustive Fil• DK sur DK := K ⊗K0 D telle
qu’on a la transversalité de Griffith pour ∇.
Ces objets forment une catégorie additive Qp -linéaire notée MFK/K0 (ϕ, ∇). Elle ne
dépend pas, à équivalence près, du choix de σ (i.e. de K0 ) parce qu’elle est équivalente
à la catégorie des F -isocristaux sur k dont l’évaluation en un (OK , pOK ) est munie
d’une filtration décroissante séparée exhaustive.
On définit par ailleurs, sur la catégorie MFK/K0 (ϕ, ∇), des fonctions additives
tN et tH , qui permettent de définir la notion de (ϕ, ∇)-module filtré faiblement
admissible : D ∈ MFK/K0 (ϕ, ∇) est faiblement admissible si tN (D) = tH (D) et
tN (D$ ) ≥ tH (D$ ) pour tout sous-objet D$ de D dans MFK/K0 (ϕ, ∇). Cela définit
une sous-catégorie MFfa
K/K0 (ϕ, ∇) de MFK/K0 (ϕ, ∇).
On construit les anneaux de périodes Bcris ⊆ BdR . Ils sont munis de structures
supplémentaires : BdR est une K -algèbre munie d’une action de GK , d’une connexion
! et d’une filtration décroissante séparée et exhausintégrable ∇ : BdR → BdR ⊗OK0 Ω
tive pour laquelle on a la transversalité de Griffith. L’anneau Bcris est une sous-K0algèbre de BdR stable sous l’action de GK et de ∇ et munie d’un opérateur de Frobenius ϕ horizontal. On dispose en outre d’un homomorphisme injectif de K-algèbres
K
K
= K et BGcris
= K0.
K ⊗K0 Bcris → BdR . On a BGdR
Si V ∈ RepQp (GK ), on pose
Dcris (V ) = (Bcris ⊗QpV )GK
et
DdR (V ) = (BdR ⊗QpV )GK.
Ces objets héritent de structures supplémentaires déduites de celles de BdR et Bcris :
le K-espace vectoriel DdR (V ) est muni d’une filtration (décroissante séparée exhaustive) et d’une connexion intégrable qui vérifie la transversalité de Griffith. Le K0 espace vectoriel Dcris (V ) est muni d’une connexion intégrable et d’un opérateur de
Frobenius σ-linéaire horizontal. En outre, on a une application K-linéaire injective
K ⊗K0 Dcris (V ) → DdR (V ). On montre que DdR (V ) est de dimension finie sur K. En
particulier, Dcris (V ) est un (ϕ, ∇)-module filtré sur K relativement à K0 (en munissant Dcris (V )K = K ⊗K0 Dcris (V ) de la filtration induite par celle de DdR (V )).
On dispose des applications de périodes
αcris (V ) : Bcris ⊗K0 Dcris (V ) −→ Bcris ⊗QpV,
αdR (V ) : BdR ⊗K DdR (V ) −→ BdR ⊗QpV
dont on montre qu’elles sont toujours injectives (voir [14, prop. 3.22]), de sorte que
dimK0 (Dcris (V )) ≤ dimQp (V ) et dimK (DdR (V )) ≤ dimQp (V ). On dit alors que V est
cristalline (resp. de de Rham) lorsque αcris (V ) (resp. αdR (V )) est un isomorphisme
(i.e. lorsque dimK0 (Dcris (V )) = dimQp (V ) (resp. dimK (DdR (V )) = dimQp (V ))).
MÉMOIRES DE LA SMF 112
CHAPITRE 1. INTRODUCTION
3
On montre que la notion de représentation cristalline ne dépend pas des choix de
K0 et de σ (voir [14, §3.6]). La sous-catégorie pleine de RepQp (GK ) dont les objets
sont les représentations cristallines (resp. de de Rham) est notée Repcris (GK ) (resp.
RepdR (GK )). Si V est une représentation cristalline, alors V est de de Rham et l’homomorphisme K ⊗K0 Dcris (V ) → DdR (V ) est un isomorphisme (voir [14, prop. 3.30]) :
on dispose ainsi d’une hiérarchie dans la catégorie RepQp (GK ).
On montre enfin (voir [14, prop. 4.27 et cor. 4.37]) que que la restriction du foncteur
Dcris à Repcris (GK ) induit une équivalence de catégories
∼
Dcris : Repcris (GK ) −→ MFfa
K/K0 (ϕ, ∇),
dont un quasi-inverse est donné par
ϕ=1
Vcris (D) = (Bcris ⊗K0 D)∇=0 ∩ Fil0 (BdR ⊗K DK )∇=0.
C’est une généralisation au cas d’un corps résiduel imparfait d’un théorème de Colmez
et Fontaine (cf. [20, th. A]), dans le cas cristallin.
L’objectif est ici de faire de même pour des bases plus générales. Supposons désormais k parfait. Dans ce qui précède, on remplace le corps K par un anneau R[p−1 ]
où R est une OK -algèbre intègre et normale, séparée et complète pour la topologie
p-adique (dont la définition précise est donnée dans le chapitre 2). On s’intéresse aux
représentations p-adiques de GR = π1 (Spec(R[p−1 ])). Remarquons que ce cadre est
exactement le même que celui considéré dans [1] (où sont généralisées la théorie des
(ϕ, Γ)-modules de Fontaine et l’équivalence de catégories de [28] entre la catégorie
des représentations p-adiques de GK et la catégorie des (ϕ, Γ)-modules étales) et [3]
(où est généralisé le théorème de Cherbonnier-Colmez, cf. [17, prop. III.5.1], sur la
surconvergence des représentations p-adiques).
Décrivons les différentes parties de ce mémoire.
Après avoir fixé les notations de base et donné quelques propriétés de l’anneau R,
! −1 ] (où R
! désigne le séparé
on étudie en détail les propriétés de l’anneau C = R[p
complété de R pour la topologie p-adique), qui constitue l’analogue du corps CK
pour l’anneau R. Remarquons qu’en général, l’anneau C est loin d’être intègre ou
noethérien, ce qui en rend l’étude délicate. On en donne les propriétés galoisiennes et
on montre qu’il est fidèlement plat sur R[p−1 ] (théorème 3.2.3). On explique ensuite
comment on peut le « localiser » et le plonger dans un produit de corps de la forme CK.
Les plongements qui s’en déduiront au niveau des anneaux de périodes seront cruciaux
dans la suite.
Dans le chapitre 4, on rappelle la construction, due à Hyodo, de l’anneau BHT ,
qui permet de définir la notion de représentation de Hodge-Tate de GR . On donne
une propriété de finitude du R[p−1 ]-module DHT (V ) associé à une représentation
p-adique V , finitude qui sera utile lors de l’étude de DdR (V ) et Dcris (V ).
SOCIÉTÉ MATHÉMATIQUE DE FRANCE 2008
4
CHAPITRE 1. INTRODUCTION
Les deux parties qui suivent sont consacrées à la construction et l’étude des anneaux de périodes BdR et Bcris respectivement, comme c’est fait dans [29] dans le cas
« classique » (i.e. absolu). On en donne les propriétés galoisiennes (sous l’hypothèse de
bonne réduction pour Bcris ) et on les munit de structures supplémentaires : filtration
pour BdR , opérateur de Frobenius pour Bcris , et connexion. Remarquons d’ailleurs
∇
que les sections horizontales fournissent d’autres anneaux de périodes B∇
dR et Bcris ,
qui sont ceux qu’on trouve en copiant les constructions habituelles. On explicite les
liens entre BdR et Bcris , en particulier, on a la « suite exacte fondamentale » (proposition 6.2.24), qui permet de prouver la pleine fidélité du foncteur Dcris sur la catégorie
des représentations cristallines. On démontre en outre des propriétés de fidèle platitude de BdR et de Bcris (théorèmes 5.4.1 et 6.3.8), qui sont utiles pour montrer que
les catégories des représentations de de Rham et celle des représentations cristallines
sont des sous-catégories tannakiennes de la catégorie des représentations p-adiques
de GR (théorème 8.4.2).
Dans le chapitre suivant, essentiellement constitué de définitions, on s’intéresse
aux (ϕ, ∇)-modules filtrés. Ils forment une catégorie dans laquelle le foncteur Dcris
(construit plus loin) prend ses valeurs.
On applique ensuite tout ce qui précède aux représentations p-adiques de GR . Après
avoir traité le cas des représentations non ramifiées, on définit les notions de représentation de de Rham et de représentation cristalline, grâce aux foncteurs DdR et Dcris.
On étudie plus particulièrement le cas des caractères, et on prouve la GR -régularité
des anneaux BdR et Bcris (cf. définition 8.0.1). On montre ensuite la pleine fidélité
du foncteur Dcris (sous l’hypothèse de bonne réduction), ce qui constitue l’un des
principaux résultats de ce mémoire (théorème 8.5.1) : cela fournit, dans le cas de
bonne réduction, un foncteur pleinement fidèle sur la catégorie des représentations
cristallines à valeurs dans la catégorie des F -isocristaux filtrés sur R. Sur l’image essentielle de ce foncteur, les résultats ne sont que fragmentaires (contrairement au cas
où R[p−1 ] est un corps) : seul le cas des caractères est bien compris, et il semble que
dans le cas général, la notion de (ϕ, ∇)-module filtré admissible ne coı̈ncide pas avec
celle de (ϕ, ∇)-module filtré faiblement admissible point par point.
Enfin, on donne en appendice quelques compléments sur les revêtements presque
étales de Faltings, puis une version affaiblie de la presque platitude (qui permet de
travailler avec des propriétés d’annulation par des idéaux qui ne sont pas égaux à leur
carré), et on finit en explicitant l’origine « cristalline » de l’anneau Acris.
Bien sûr, la plupart des énoncés sont des généralisations de ceux de [15]. Les
preuves sont parfois beaucoup plus techniques (par exemple la proposition 8.2.4 et
ses corollaires). D’autres sont par contre assez proches ; je les ai néanmoins incluses
lorsque cela m’a semblé utile.
L’une des principales applications de la théorie des périodes p-adiques sont les
théorèmes de comparaison entre cohomologies p-adiques. Dans le cas « classique »
MÉMOIRES DE LA SMF 112
CHAPITRE 1. INTRODUCTION
5
(i.e. lorsque la base est un corps de valuation discrète complet à corps résiduel parfait), on a en particulier l’énoncé suivant. Soit X une variété propre et lisse sur K,
et XK le changement de base à K . Alors la cohomologie étale p-adique de XK fournit une représentation p-adique V qui est de de Rham, et même cristalline pour les
variétés à bonne réduction. En outre, l’invariant DdR (V ) correspondant s’identifie
à la cohomologie de de Rham de X, et Dcris (V ) à la cohomologie cristalline de la
fibre spéciale de X dans le cas de bonne réduction (il y a aussi une version pour la
réduction semi-stable). Ces énoncés ont été conjecturés par Fontaine, et démontrées
par Fontaine-Messing (cf. [33]) pour des variétés définies sur un corps absoluement
non ramifié, ayant bonne réduction et de dimension inférieure à p ; par Faltings (voir
[25, th. 5.6 & th. 8.1]) pour le cas de Rham et cristallin, puis par Hyodo-Kato et par
Tsuji dans le cas semi-stable (cf. [55, th. 0.2]). Fontaine-Messing, Hyodo-Kato et Tsuji
utilisent des méthodes syntomiques, alors que Faltings utilise la théorie des « revêtements presque étales » (plus proche des méthodes de Tate). Insistons sur le fait que
ces théorèmes de comparaison et leur généralisations au cas relatif ne sont pas abordés
dans ce mémoire. Néanmoins, la théorie des revêtements presque étales de Faltings
va y être utilisée de façon cruciale.
La nécessité de construire des anneaux de périodes généralisés (en particulier « plus
gros » que ceux fournis par la construction habituelle) a été observée en premier par
Hyodo, qui a montré qu’en général, le module de Tate d’une variété abélienne sur un
corps de valuation discrète complet de caractéristique mixte à corps résidul imparfait,
n’est pas de Hodge-Tate au sens classique, ce qui l’a amené à construire un nouvel
anneau (cf. [41] et remarque 8.2.1 (2)). C’est l’une des motivations des constuctions
faites dans ce mémoire.
La construction d’anneaux de périodes relatifs dans le cas de Rham a été abordé
par Wintenberger [57] pour les schémas abéliens, et Tsuzuki (notes non publiées) dans
le cas général. Remarquons aussi que certains anneaux de périodes « relatifs » ont étés
utilisés par Faltings et Tsuji dans leurs preuves des théorèmes de comparaison. Dans
ce travail, on n’aborde pas la théorie semi-stable. C’est l’objet d’un travail en cours
de Tsuji.
Insistons sur le fait que la théorie présentée ici est une théorie locale : on travaille
sur des bases affines. Le problème de sa « faisceautisation » est l’objet de travaux en
cours d’Andreatta et Iovita (cf. [5], [4] et [2]), qui fournissent une nouvelle preuve
du théorème de comparaison (dû à Faltings) entre cohomologie étale p-adique et
cohomologie cristalline (avec coefficients).
Ce travail est une version améliorée d’une partie de ma thèse. Je remercie mon directeur, Jean-Marc Fontaine, pour son aide et ses conseils. Je suis aussi reconnaissant
envers Ahmed Abbes, Fabrizio Andreatta, Katsuya Kato, Alban Moreau et Takeshi Tsuji pour les nombreuses discussions que j’ai eues avec eux, qui m’ont été très
SOCIÉTÉ MATHÉMATIQUE DE FRANCE 2008
6
CHAPITRE 1. INTRODUCTION
utiles. Enfin, je remercie le rapporteur, dont les remarques ont permis d’améliorer ce
mémoire.
Ce travail a été rédigé alors que j’étais post-doctorant au Dipartimento di Matematica Pura ed Applicata de Padoue et à la Graduate School of Mathematical Sciences
de Tokyo, dans le cadre du Marie Curie Research Training Network (Réseau de Géométrie Algébrique et d’Arithmetique Européen). Je remercie ces trois institutions,
ainsi que Francesco Baldassarri et Takeshi Saito pour leur accueil et les conditions de
travail excellentes dont j’ai bénéficié grâce à eux.
MÉMOIRES DE LA SMF 112
CHAPITRE 2
NOTATIONS, PREMIÈRES PROPRIÉTÉS
On décrit dans cette partie l’anneau de base sur lequel on va travailler et quelques
unes de ses extensions qui nous seront utiles par la suite.
On reprend les notations de l’introduction. Soit d un entier, T1 , . . . , Td des indé"
#
$
%
terminées et R0 = OK T1±1 , . . . , Td±1 le séparé complété de OK T1±1 , . . . , Td±1 pour
& obtenu à partir de R0 en itérant un
la topologie p-adique. On se donne un anneau R
nombre fini de fois les opérations suivantes :
(ét) complétion p-adique d’une extension étale ;
(loc) complétion p-adique d’une localisation ;
(comp) complétion par rapport à un idéal contenant p.
$
%
& est à fibres géométriquement réOn suppose en outre que OK T1±1 , . . . , Td±1 → R
& est de dimension de Krull inférieure à 2, et que k → R
& ⊗OK k
gulières ou que R
est géométriquement intègre (ces hypothèses assurent que le théorème de pureté de
Faltings s’applique, cf. [1, th. 5.1 & th. 5.11]).
& On note R la réunion des sous-R&
Soit ER une clôture algébrique de Frac(R).
−1
−1
&
algèbres finies S de ER telles que S[p ] est une extension étale de R[p ]. On se
&
donne une sous-R-algèbre
finie R de ER telle que
&
• R est normale et plate sur R,
−1
& −1 ],
• R[p
] est étale sur R[p
(en particulier R ⊂ R) et on pose
'
(
GR = Gal R[p−1 ]/R[p−1 ].
On suppose en outre que K est algébriquement clos dans R[p−1 ] (quitte à remplacer,
dans la construction qui précède, le corps K par sa clôture algébrique dans R[p−1 ],
ce n’est pas une restriction). Il en résulte que GK est un quotient de GR . On étend
&
le caractère cyclotomique en χ : GR → Z×
p . Rappelons par ailleurs que les anneaux R
et R sont séparés et complets pour la topologie p-adique, noethériens, intègres et
normaux.
8
CHAPITRE 2. NOTATIONS, PREMIÈRES PROPRIÉTÉS
Proposition 2.0.1. — Le Frobenius R/pR → R/pR est surjectif.
2
Démonstration. — Soit α ∈ R. Posons Pα (X) = X p − pX − α. Une racine β de
2
Pα dans E appartient à R. En effet, on a Pα$ (X) = −p(1 − pX p −1 ) et donc Pα$ (β)
& est complet pour la topologie p-adique (en effet, R[β]
&
& p−1 ]× car R[β]
appartient à R[β,
&
&
est un R-module de type fini complet pour la topologie p-adique, car R est noethérien
& p−1 ] est donc étale
& −1 ]-algèbre R[β,
et complet pour la topologie p-adique). La R[p
−1
& on a bien
(cf. [48, II, prop. 8]) et β appartient à R[p ]. Comme β est entier sur R,
p2
β ∈ R. Enfin, on a β ≡ α modulo pR.
Notons W = W(k) et K0 = W [p−1 ] l’anneau des vecteurs de Witt à coefficients
dans k et son corps des fractions. On fixe une uniformisante " de K et on note
E ∈ W [X] le polynôme minimal de " sur K0 . C’est un polynôme d’Eisenstein de
degré e = [K : K0 ].
Choisissons une suite ε = (ε(n) )n∈N ∈ K N de sorte que ε(0) = 1, ε(1) -= 1 et
(n+1) p
(ε
) = ε(n) pour tout n ∈ N (l’élément ε(n) ∈ K est alors une racine pn -ième
primitive de l’unité). Si L est une extension de K0 contenue dans K , on note OL son
anneau des entiers. Si n ∈ N>0 , on pose Ln = L[ε(n) ] et on note
)
L∞ =
Ln
n∈N>0
l’extension cyclotomique de L. C’est une extension galoisienne de L, dont le groupe de
Galois ΓL = Gal(L∞ /L) s’identifie, via le caractère cyclotomique χ, à un sous-groupe
ouvert de Z×
p.
(n)
Pour i ∈ {1, . . . , d}, choisissons une suite T&i = (T )n∈N ∈ R N de sorte que
(0)
(n+1)
i
(n)
(n)
Ti = Ti et (Ti
)p = Ti pour tout n ∈ N. C’est possible parce que si Ti ∈ R
(n+1)
(n)
est construit, alors Ti
est une racine du polynôme Pi,n (X) = X p − Ti . On a
%
$
×
(n+1)
(n+1) p−1
(n+1)
$
& T (n+1) , p−1
(Ti
) = p(Ti
)
∈ R
(car Ti
est inversible vu
donc Pi,n
i
n+1
que sa puissance p
-ième l’est). On en conclut comme dans la preuve de la propo$
& T (n+1) , p−1 ]/R[p
& −1 ] est finie étale, de sorte que T (n+1)
sition 2.0.1 que l’extension R
i
i
est dans R.
(n)
(n)
Pour n ∈ N, on pose Rn$ = R[T1 , . . . , Td ] et on note Rn le normalisé de Rn$ ·OKn
dans R (on a Rn [p−1 ] = (Rn$ · OKn )[p−1 ]) et
)
R∞ =
Rn.
n∈N
En particulier on a R∞ ⊂ R.
On pose ΓR = Gal(R∞ [p−1 ]/R[p−1 ]) et HR = Ker(GR → ΓR ). Le groupe ΓR
s’insère dans la suite exacte
& R −→ ΓR −→ ΓK → 1
1→Γ
MÉMOIRES DE LA SMF 112
9
CHAPITRE 2. NOTATIONS, PREMIÈRES PROPRIÉTÉS
& R = Gal(R∞ [p−1 ]/R · K∞ ) = Ker(χ) est un sous-groupe d’indice fini du groupe
où Γ
& e . Ce dernier est topologiquement engendré par {γ1 , . . . , γd }, où γi est défini
abélien Γ
R
par
*
(n)
ε(n) Ti
si j = i,
(n)
γi (Tj ) =
(n)
Tj
si j -= i.
r
& e,
Comme N est dense dans Zp pour la topologie p-adique et limr→∞ γip = Id dans Γ
R
+d
x
&
on dispose de γi pour tout x ∈ Zp . En notation additive, on a ΓRe = i=1 Zp γi.
χ(g)
Si g ∈ ΓR , on a les relations gγi g −1 = γi
pour tout i ∈ {1, . . . , d} : le ΓR -module
d
& R est donc isomorphe à Zp (1) . On choisit γ0 un générateur topologique de la partie
Γ
(
'
$
[p−1 ].
libre de Gal R∞ [p−1 ]/R∞
#
"
& fermée pour la topologie
On choisit R0 une sous-W T1±1 , . . . , Td±1 -algèbre de R
& R
& est un isomorphisme, et telle
p-adique telle que l’homomorphisme R0 /pR0 → R/"
n+1
n+1
Z-algèbre R0 /p
R0 est formellement lisse. C’est
que pour tout n ∈ N, la Z /p
& est obtenu à partir de R0 en itérant les opérations (ét), (loc) et (comp),
possible car R
"
#
et R0 est obtenu à partir de W T1±1 , . . . , Td±1 en itérant les mêmes opérations (ét),
(loc) et (comp) (en effet, sur un anneau séparé et complet pour la topologie p-adique,
les opérations (ét), (loc) et (comp) ne dépendent que de la réduction modulo "). On
& R.
& Bien sûr, un tel
fixe un relèvement σ : R0 → R0 du Frobenius x .→ xp sur R/"
& est
relèvement n’est pas unique. Remarquons que l’application naturelle R0 ["] → R
un isomorphisme (car c’en est un modulo ").
& Il s’agit d’une hypothèse de bonne réduction qui
Notons (BR) la condition R = R.
sera supposée remplie lorsqu’on regardera la théorie cristalline.
×
), on notera pc un élément de valuation c dans K∞.
Pour c ∈ v(K∞
Pour q ∈ N, notons
! q = lim Ωq /pn Ωq
Ω
R
R/ Z
←− R/ Z
n
le séparé complété du module des différentielles ΩqR/ Z (c’est le module des différentielles continues de R relativement à Z).
Proposition 2.0.2. — On a, pour q dans N,
! 1R =
Ω
0
d
,
R0 d log(Ti )
i=1
et
!q =
Ω
R0
q
R0
! 1R.
Ω
0
! q sont
! q ⊗R0 R → Ω
Par ailleurs, le noyau et le conoyau de l’application naturelle Ω
R0
R
tués par une puissance de p. En particulier, on a
! q [p−1 ] =
Ω
R
q .,
d
-
R[p−1 ]
i=1
/
R[p−1 ]d log(Ti ).
SOCIÉTÉ MATHÉMATIQUE DE FRANCE 2008
10
CHAPITRE 2. NOTATIONS, PREMIÈRES PROPRIÉTÉS
Démonstration. — Montrons par récurrence sur n ∈ N>0 que
Ω1R/ Z
d
,
0 n 1
p ΩR0 / Z =
(R0 /pn R0 )d log(Ti ).
i=1
& ⊗OK k
Le cas n = 1 résulte du fait que T1 , . . . , Td est une p-base de R0 /pR0 = R
n
0
0
p
(cf. [3]). L’homomorphisme Ω1R0 / Z pn+1 Ω1R0 / Z −→ Ω1R0 / Z pn+1 Ω1R0 / Z se factorise
par Ω1R0 / Z ⊗R0 k et donne lieu à la suite exacte
0
0
pn
Ω1R0 / Z ⊗R0 (R0 /pR0 ) −−→ Ω1R0 / Z pn+1 Ω1R0 / Z −→ Ω1R0 / Z pn Ω1R0 / Z → 0.
On a le diagramme
d
d
,
pn ,
!
(R0 /pR0 )d log(Ti )
(R0 /pn+1 R0 )d log(Ti )
i=1
i=1
α
Ω1R0 / Z ⊗R0 (R0 /pR0 )
pn
0 "
! Ω1R / Z pn+1 Ω1R / Z
0
0
!
d
,
(R0 /pn R0 )d log(Ti ) → 0
i=1
0
! Ω1R / Z pn Ω1R / Z → 0
0
0
La surjectivité de α est immédiate. Si ω ∈ Ker(α), alors ω est la classe modulo pn+1
+d
de pn ω
! où ω
! ∈ i=1 R0 d log(Ti ) avec pn ω
! ∈ pn+1 Ω1R0 / Z . Comme les d log(Ti ) ne sont
+
pas de p-torsion dans Ω1R0 / Z , on a ω
! ∈ p( di=1 R0 d log(Ti )) d’où ω = 0, et α est un
! 1 = +d R0 d log(Ti ).
isomorphisme. En passant à la limite, on a bien Ω
R0
i=1
0
Comme pour tout n ∈ N>0 , le R0 /pn R0 -module Ω1R0 / Z pn Ω1R0 / Z est libre de
! q du produit extérieur est le produit
rang d (de base (d log(Ti ))1≤i≤d ), le complété Ω
R0
1q ! 1
Ω du complété.
extérieur
R0
R0
On a une suite exacte 0 → N → Ω1R0 / Z ⊗R0 R → Ω1R/ Z → Ω1R/R0 → 0 (cf. [46,
& −1 ] donc sur R0 [p−1 ], les modules N [p−1 ]
th. 25.1]). Comme R[p−1 ] est étale sur R[p
et Ω1R/R0 [p−1 ] sont nuls : les R-modules N et Ω1R/R0 sont de p-torsion. Comme ils
& donc sur R0 ), ils sont donc
sont de type fini sur R (car R est noethérien et fini sur R
∼
tués par une puissance de p : il existe c ∈ N tel que pc Ω1R0 / Z ⊗R0 R → pc Ω1R/ Z . En
quotientant par pn , puis en prenant la puissance extérieure q-ième et en passant à
∼ c !q
! q ⊗R0 R →
!q ⊗
!
la limite, on tire pc Ω
p ΩR (le produit tensoriel complété Ω
R0
R0 R0 R est
q
q
! ⊗R0 R car R est fini sur R0 et Ω
!
isomorphe à Ω
R0
R0 libre sur R0 ). Le noyau et le
q
q
!
!
conoyau de l’homomorphisme ΩR0 ⊗R0 R → ΩR sont donc tués par pc.
! le séparé complété de R pour la topologie p-adique et C = R[p
! −1 ]. Par
Notons R
!
continuité, GR agit sur R et sur C.
! est sans p-torsion. Par ailleurs, l’homomorProposition 2.0.3. — L’anneau R
! est injectif et on a R ∩ pR
! = pR.
phisme naturel R → R
MÉMOIRES DE LA SMF 112
CHAPITRE 2. NOTATIONS, PREMIÈRES PROPRIÉTÉS
11
Démonstration. — La première assertion résulte du fait que R est sans p-torsion.
! Il existe une R-algèbre S finie et normale telle
Soit x ∈ R d’image nulle dans R.
−1
−1
que S[p ] est étale sur R[p ] et x ∈ S. Pour tout n ∈ N, on a x ∈ pn R ∩ S = pn S
(car S est normal), donc x = 0 vu que S est séparé pour la topologie p-adique.
! Soit x ∈ R ∩ pR.
! Il existe une R-algèbre
On a bien sûr l’inclusion pR ⊆ R ∩ pR.
S finie et normale telle que S[p−1 ] est étale sur R[p−1 ] et x ∈ S. Écrivons x = py
! et montrons que y ∈ S. On a déjà y ∈ S[p−1 ]. Comme S est normal et
avec y ∈ R
& on a
noethérien (car S est fini sur R),
2
Sq
S = S[p−1 ] ∩
ht(q)=1
p∈q
(cf. [46, th. 11.5]) : il suffit donc de montrer que y ∈ Sq pour tout q ∈ Spec(S) de
hauteur 1 tel que p ∈ q. Le localisé Sq étant normal (car S l’est), noethérien de
dimension 1, c’est un anneau de valuation discrète. Notons vq la valuation norma3q [p−1 ] de
3q , à une clôture algébrique S
lisée. Cette dernière se prolonge au complété S
!
−1 ] pour la topologie p-adique.
3
3q [p−1 ] et au complété S
son corps des fractions S
q [p
!
! s’envoie alors dans l’anneau des entiers de S
−1 ] : comme y appartient
3
L’anneau R
q [p
!
à R, on a vq (y) ≥ 0 et donc y ∈ Sq.
! et R/p
! R
! à R/pR.
Par la suite, on identifie R à son image dans R
! est en général très loin d’être intègre, cela est dû
Remarque 2.0.4. — L’anneau R
au fait qu’il existe en général une infinité d’idéaux premiers au-dessus de l’idéal pre&
mier pR.
Le tableau suivant résume à quoi correspondent les objets considérés dans ce chapitre dans le cas classique.
Cas relatif
Cas classique
R
R0
R∞ [p−1 ]
R
GR
C
OK
W
K∞
OK
GK
CK
Remarquons que l’analogue de l’extension cyclotomique K∞ n’est pas l’anneau R · K∞ , cela résulte du théorème de Faltings (cf. théorème 9.1.1).
SOCIÉTÉ MATHÉMATIQUE DE FRANCE 2008
CHAPITRE 3
L’ANNEAU C
3.1. Propriétés galoisiennes
L’objet de cette partie est d’adapter à la situation qui précède des résultats de
cohomologie galoisienne (dus à Faltings [24, Section I.4] et [26, 2c]) qui généralisent
[40, th. 1].
Notation. — Rappelons que χ : GR → Z×
p désigne le caractère cyclotomique. Si M
est un GR -module et n ∈ Z, on note M (n) le module M sur lequel l’action de GR est
multipliée par χn (« tordu à la Tate »).
&
Remarquons que l’anneau R est stable par l’action de GR (par normalité de R).
−1 & −1
&
Soit S une R-algèbre normale, telle que S[p ]/R[p ] est finie étale. Pour n ∈ N>0 ,
&n (resp. de S · R
&∞ ) dans ER . L’anneau
notons Sn (resp. S∞ ) le normalisé de S · R
&n . Comme R
&n est libre sur R,
&
Sn s’identifie à un facteur du produit tensoriel S ⊗Re R
−1
−1
&
&
&
l’anneau S ⊗Re Rn s’injecte dans l’anneau (S ⊗Re Rn )[p ], qui est étale sur R[p ]
& de
par changement de base. Il en résulte que l’anneau Sn [p−1 ] est fini étale sur R,
4
sorte que Sn est contenu dans R et donc S∞ = n∈N Sn ⊆ R. Comme R est réunion
& −1 ] est étale, il est
&
filtrante des R-algèbres
S finies et normales, telles que S[p−1 ]/R[p
a fortiori réunion filtrante des S∞ correspondants.
&
! = lim B/pn B son séparé complété pour la
Si B est une R-algèbre,
on note B
←−n
&∞ -algèbre, on note mB l’idéal de B entopologie p-adique. Si B est en outre une R
" c
#
gendré par p , c ∈ v(K∞ ) ∩ Q>0 . Remarquons que m2B = mB (ce qui nous servira
! et donc à C.
constamment dans ce qui suit). L’action de G sur R se prolonge à R
R
! de la topologie p-adique, i.e. définie par la famille d’idéaux {pnR}
!
On munit R
n∈N.
!
Dans ce qui suit, on calcule la cohomologie galoisienne continue de R, de C et de leurs
tordus à la Tate. Pour ce faire, l’ingrédient crucial est la théorie (due à Faltings) des
extensions presque étales. Rappelons-en les grandes lignes (cf. section 9.1 pour plus
de détails).
14
CHAPITRE 3. L’ANNEAU C
&∞ -module, on dit que M est presque nul s’il est tué par m e . Cela
Si M est un R
R∞
permet de définir les notions de module presque plat, presque projectif (avec la presque
&∞ -algèbres
nullité des modules Tor, Ext). En particulier, une extension A ⊆ B de R
est dite presque étale si B est presque projectif de type fini en tant que A-module
et en tant que B ⊗A B-module. Avec les notations introduites plus haut, le résultat
&∞ est presque étale. Cela implique
central (dû à Faltings) est que l’extension S∞ /R
qu’à multiplication par n’importe quelle puissance de p près, l’extension R/R∞ est
acyclique. En particulier, on a l’énoncé suivant.
! est
!∞ → H0 (HR ,R)
Proposition 3.1.1. — Le conoyau de l’application naturelle R
! sont de m !∞ -modules Hq (HR ,R)
de mRb∞ -torsion. Par ailleurs, pour q > 0, les R
b∞
R
torsion (i.e. presque nuls). En particulier, on a
*
!∞ [p−1 ] si q = 0,
R
q
H (HR , C) =
0
sinon.
Démonstration. — On dispose de la résolution injective de (R/pn R)[HR ]-modules
si n ∈ N>0 :
(*)
∂0
∂1
∂2
0 → X −1 := R/pn R −−→ X 0 −−→ X 1 −−→ X 2 −→ · · ·
q+1
q+1
, R/pn R) est le R/pn R-module des applications continues de HR
où X q = C 0 (HR
dans R/pn R (l’anneau R/pn R étant muni de la topologie discrète, il s’agit des foncq+1
). Il est muni de l’action
tions qui se factorisent à travers un quotient fini de HR
de HR donnée par (g · x)(h0 , . . . , hq ) = gx(g −1 h0 , . . . , g −1 hn ).
Soient q ∈ N et x ∈ (X q )HR une cochaine. Comme (*) est exacte, il existe y ∈ X q−1
tel que x = ∂ q y. Comme y est continue, il existe une sous-extension finie et normale
S ⊆ R de R telle que S∞ [p−1 ]/R∞ [p−1 ] est étale galoisienne et telle que
5
y se factorise par Gal(S∞ [p−1 ]/R∞ [p−1 ])q ,
y est à valeurs dans S∞ /pn S∞.
×
) ∩ Q>0 . D’après le corollaire 9.1.2, il existe α ∈ S∞ tel que
Soit c choisi dans v(K∞
TrS∞ [p−1 ]/R∞ [p−1 ] (α) = pc ,
On a alors TrS∞ [p−1 ]/R∞ [p−1 ] (αy) ∈ (X q−1 )HR et
'
(
∂ q TrS∞ [p−1 ]/R∞ [p−1 ] (αy) = TrS∞ [p−1 ]/R∞ [p−1 ] (α∂ q y) = TrS∞ [p−1 ]/R∞ [p−1 ] (α)x = pc x.
Ceci implique que pc x est un cobord : pc x a une image nulle dans Hq (HR , R/pn R)
si q > 0 et pc x ∈ R∞ /pn R∞ si q = 0. Ainsi les R∞ -modules
'
(
Hq (HR , R/pn R) si q > 0 et Coker R∞ /pn R∞ → H0 (HR , R/pn R)
sont tués par mR∞.
MÉMOIRES DE LA SMF 112
15
3.1. PROPRIÉTÉS GALOISIENNES
! D’après ce qui précède, pour tout n ∈ N , il existe x ∈ R
Soit x ∈ H0 (HR ,R).
>0
n
∞
!
!∞ . Ainsi, le conoyau
et yn ∈ R tel que pc x = xn +pn yn . On a donc x = limn→∞ xn ∈ R
! est tué par m.
!∞ → H0 (HR ,R)
de l’application naturelle R
b∞
R
Soit q > 0. D’après [54, prop. 2.2], on a la suite exacte
! −→ lim Hq (H , R/pn R) → 0
0 → R1 lim Hq−1 (HR , R/pn R) −→ Hq (HR ,R)
R
←−
←−
n
n
(Tate suppose dans [54, §2] que les coefficients sont des Zp -modules de type fini,
mais seul sert le fait que les R/pn R sont munis de la topologie discrète, cf. aussi
[42, §2]). Comme Hi (HR , R/pn R) est tué par mR∞ pour i > 0, il en est de même
des R∞ -modules R1 limn Hi (HR , R/pn R) et limn Hi (HR , R/pn R) (par fonctorialité,
←−
←−
×
) ∩ Q>0 ). Cela
les applications de multiplication par pc sont nulles pour c ∈ v(K∞
!
q
implique que H (HR ,R) est tué par mR∞ pour q > 1 et que le conoyau de l’injection
! est tué par m . Mais comme le conoyau de
R1 limn H0 (HR , R/pn R) → H1 (HR ,R)
R∞
←−
l’injection R∞ /pn R∞ → H0 (HR , R/pn R) est tué par mR∞ d’après ce qui précède, il en
est de même du conoyau de R1 limn R∞ /pn R∞ → R1 limn H0 (HR , R/pn R) d’après la
←−
←−
suite exacte longue de cohomologie. Comme le système projectif {R∞ /pn R∞ }n∈N>0
vérifie la condition de Mittag-Leffler (les morphismes de projection sont surjectifs),
! est tué par m.
on a R1 limn R∞ /pn R∞ = 0 et H1 (HR ,R)
R∞
←−
Remarque 3.1.2. — Le contrôle précis de la ramification donné par le théorème 9.1.1 n’est pas nécessaire pour la preuve de la proposition 3.1.1, le théorème de
Faltings (voir [24, th. 3.1]) suffit.
Lemme 3.1.3. — Il existe une constante cR (qui ne dépend que de R) telle que pour
!&
&n ). En particulier, on a R
!∞ ⊆ p−cR (R⊗ e R
tout n ∈ N>0 , on a Rn ⊆ p−cR (R⊗ e R
∞ ).
R
R
Démonstration. — D’après [1, cor. 3.10], il existe une constante c(R) ne dépendant
−n
&n+1 . On a donc
que de R telle que pour tout n, on a pc(R)p Rn+1 ⊆ Rn ⊗Ren R
c(R)(p−n+1 +···+1)
&n : on peut prendre cR = c(R)p/(p − 1). Le second
p
Rn ⊆ R ⊗ e R
R
énoncé résulte de [1, cor. 3.10].
6 = R∩W∞.
Notons W∞ l’anneau des entiers de l’extension cyclotomique de K0 et W
−1
6
&
6
L’anneau W [p ] est une extension finie de K0 . On a aussi W = R ∩ W∞ parce qu’on
a supposé K algébriquement clos dans R[p−1 ]. En outre, R[p−1 ] et W∞ [p−1 ] sont
6 [p−1 ]. On note R⊗
! f W∞ le produit tensoriel complété
linéairement disjoints sur W
W
6.
(pour la topologie p-adique) de R par W∞ au-dessus de W
!∞ induit un
! f W∞ → R
Lemme 3.1.4. — Pour tout q ∈ N, l’homomorphisme R⊗
W
homomorphisme
& R , R⊗
&R , R
!∞ )
! f W∞ ) −→ Hq (Γ
Hq (Γ
W
SOCIÉTÉ MATHÉMATIQUE DE FRANCE 2008
16
CHAPITRE 3. L’ANNEAU C
dont le noyau et le conoyau sont tués par une puissance de p. Par ailleurs, on a
q
q &
& R , R⊗
!
! f W∞ ),
H (ΓR , R⊗W
H1 (Γ
f W∞ ) /
W
ˆ f W∞
R⊗
W
'
(
! f W∞ ) / (R⊗
! f W∞ )(−1) d.
H (ΓR , R⊗
W
W
1 &
!∞ (les anneaux R[p−1 ] et W∞ [p−1 ] sont
! f W∞ → R
Démonstration. — L’inclusion R⊗
W
!&
6 [p−1 ]) se factorise par le morphisme R ⊗ e R
!
linéairement disjoints sur W
R ∞ → R∞ . Par
!&
!∞ ⊆ R ⊗ e R
ailleurs, d’après le lemme 3.1.3, on a l’inclusion pcR R
∞ : le noyau et le
R
!
&∞ ) → Hq (Γ
&R , R ⊗ e R
&R , R
!∞ ) sont tués par pcR.
conoyau de l’homomophisme Hq (Γ
R
Il suffit donc de montrer que le noyau et le conoyau de
!&
& R , R⊗
&R , R ⊗ e R
! f W∞ ) −→ Hq (Γ
Hq (Γ
R ∞)
W
sont tués par une puissance de p.
"
#
Soient A = (α1 , . . . , αd ), αi ∈ Z[p−1 ] ∩ [0, 1[ et r ∈ N. Pour α ∈ A, il existe
n ∈ N tel que pn α ∈ Nd . On pose alors
' (n) (pn α1
' (n) (pn αi
' (n) (pn αd
· · · Ti
· · · Td.
T α = T1
!&
α
r
Le (R/pr R) ⊗W
e R∞ est libre de base (T )α∈A . Comme on
f W∞ -module (R/p R) ⊗R
n
α
&
a γi (T α ) = (ε(n) )p αi T α , chaque facteur ((R/pr R) ⊗W
f W∞ )T est stable par ΓR.
& R / (Zp (1))d . D’après [47, prop. 3.5], on a
Rappelons que Γ
'
(
& R , (R/pr R) ⊗ f W∞ /
Hq Γ
W
q
-
'
(d
(R/pr R) ⊗W
f W∞ (−1)
(R/pr R)⊗W
f W∞
& R , (R/pr R) ⊗ f W∞ T α ) est tué par une puissance de ε(1) − 1 (indépendante
et Hq (Γ
W
de α) si α -= 0. Il en résulte que le conoyau de l’inclusion
'
'
(
&
& R , (R/pr R) ⊗ f W∞ ) ⊆ Hq Γ
& R , (R/pr R) ⊗ e R
Hq Γ
R ∞
W
sont tués par une puissance de ε(1) − 1.
Comme dans la preuve de la proposition 3.1.1, on en déduit que le conoyau de
(1)
&
&R , R ⊗ e R
! f W∞ ⊆ H0 (Γ
l’inclusion R⊗
− 1.
| 18,900
|
dumas-03640124-CALEMARD%20Arnaud_DUMAS.txt_3
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,022
|
La communication publique autour des exportations d’armement : analyse d’une communication gouvernementale autour d’un sujet sensible. Sciences de l'information et de la communication. 2021. ⟨dumas-03640124⟩
|
None
|
French
|
Spoken
| 7,588
| 11,974
|
La communication autour de l’exportation d’armement vise l’accessibilité sociale d’un objectif de développement catégoriel, « sans que cet objectif ne concorde a priori avec celui des populations potentiellement concernées 93». La communication publique autour de l’exportation d’armement semble justement avoir échoué à faire concorder l’objectif de développement catégoriel avec celui de la population française. Autrement dit, le Gouvernement n’a pas réussi à convaincre l’opinion publique des conséquences positives de la politique d’exportation de systèmes d’armes sur la souveraineté stratégique française, sur son rayonnement sur la scène internationale et sur son économie. C’est d’ailleurs ce que confirme Delphine Sampic-Berger lorsqu’elle affirme que « ce qui reste compliqué à leur expliquer [les Français], c’est le lien entre exportation et souveraineté stratégique. Là il faut que l’on soit plus pédagogique94 ».
92 François ALLARD-HUVER et Thierry LIBAERT. « La communication sur les sujets sensibles au prisme des sciences de l’information et de la communication ». Communiquer, Revue de communication sociale et publique, no 11, 1er février 2014. 93 François ALLARD-HUVER et Thierry LIBAERT, ibid. 94 Entretien avec Madame Delphine SAMPIC-BERGER, directrice de la communication du GICAT, réalisé le 21 juillet 2021. 44
L’analyse de cette crise nous permet donc de valider notre deuxième hypothèse. En effet, elle révèle que les difficultés que rencontre le Gouvernement à communiquer sur sa politique d’exportation ne peuvent pas être seulement imputées au haut degrés de sensibilité du sujet. Autrement dit, l’État a sa part de responsabilité dans cette situation « d’impasse communicationnelle ». En n’ayant pas développé de réelle stratégie de communication autour de son action, il n’a manifestement pas réussi à er l’adhésion et à limiter les effets de la crise engendrée par « l’affaire Disclose ». Nous estimons qu’il conviendrait de développer une stratégie de communication globale, qui s’inscrirait sur le temps long, et qui ne se contenterait pas d’une défense passive à l’encontre des adversaires du secteur. III)! Des leviers d’actions possibles pour susciter l’adhésion et prévenir de futures crises A.! Un terreau favorable a.& Une population française réceptive à « la chose militaire » 1.& L’attachement de la population à ses armées L’armée française est une institution qui bénéfice d’une très grande popularité, notamment depuis la mise en place du dispositif SENTINELLE en 2015, qui lui a permis d’obtenir une nouvelle visibilité. En octobre 2017, un sondage IFOP-DICOD attestait en effet que 88% des Français avait une bonne image de leur armée95. En se déployant de façon massive sur le territoire national, elle s’est rapprochée de la population et a renforcé la confiance que cette dernière avait en elle. Elle est aujourd’hui perçue comme une Bénédicte soldat les Français et ées en matière de savoir-faire, de réactivité, de capacité à planifier dans l’urgence et de résilience dans des situations de crises. L’époque de l’antimilitarisme semble révolue et les valeurs que prônent les armées sont aujourd’hui revenues au goût du jour. Les armées se présentent comme un facteur de stabilité dans une société confrontée à de multiples crises. En atteste le débat sur la mise en place d’une nouvelle forme de service militaire : le service national universel (SNU). En effet, en novembre 2018, 74% des Français âgés de 16 à 25 ans affirmait souhaiter la mise en place d’un nouveau service national universel96. La fin du service national, malgré toutes ses limites, a laissé un vide qui après quelques années s’est fait ressentir, notamment avec l’irruption du thème de la cohésion nationale dans le débat public. En a résulté la volonté chez François Hollande de mettre en place dès 2015 une version métropolitaine du service national adapté (SMA) existant en outre-mer et qui a pris l’appellation de service militaire volontaire. La chose militaire est donc redevenue un élément structurant de la vie de la cité, après de nombreuses années durant lesquelles les armées et la société ont entretenu des relations sinon tendues, du moins plutôt froides.
2.& Un intérêt accru pour les sujets de défense
Au-delà de ce grand retour de valeurs militaires, il est également possible de constater un regain d’intérêt de la population française pour les sujets de défense. En témoigne par exemple la part d’audience qu’obtient régulièrement le « Journal de la défense » diffusé par LCP - Assemblée nationale. En 2016, celle-ci fluctuait entre 300 000 et 500 000 spectateurs, chiffres qui selon la DICOD sont très encourageants au regard de ceux obtenus par d’autres émissions diffusées sur cette même chaîne97. 96 Sondage IFOP réalisé en novembre 2018 au profit du Comité pour le relations nationales et internationales des associations de jeunesse et d’éducation populaire (CNAJEP). https://www.ifop.com/wp-content/uploads/2018/11/115911-Rapport-ANACEJ-Publication.pdf. 97 Bénédicte CHÉRON, Le soldat mé
connu
..., op. cit., p 23. Sur le plan de la littérature de guerre, deux ouvrages récents écrits par de jeunes officiers supérieurs ont eux aussi connu un succès notable : Jonquille - Afghanistan 2012 de Jean Michelin et Dans les griffes du Tigre de Brice Erblan. Le premier, qui relate le quotidien de son auteur durant une opération extérieure en Kapisa, avait été vendu à plus de 6 000 exemplaires à la fin du mois de juillet 2018. Quant au second, qui traite de l’expérience d’un pilote d’hélicoptère de combat en Afghanistan et en Libye, il obtenait le score de 6 600 ventes au terme de l’année 201798.
b.& Une présence importante du fait militaire dans le paysage médiatique 1.& Les OPEX des années 2000 et le retour du fait guerrier dans le paysage médiatique
Les chiffres le montrent, l’actualité des armées est beaucoup plus présente dans la presse aujourd’hui qu’elle ne l’était à la fin des années 1990. La guerre en Afghanistan a véritablement marqué un tournant en terme de visibilité médiatique des militaires. En effet, le nombre de documentaires, de reportages ou encore d’éditoriaux traitant de la chose militaire, a explosé entre 2001 et 2011. Ainsi, le nombre de documents télévisuels diffusés sur des chaînes hertziennes a été multiplié par 3,2 durant ce lapse de temps, passant de 55 documents à 177 par an99. L’opération Harmattan, lancée en Libye en 2011, a elle aussi entrainé un pic de visibilité médiatique des sujets de défense. Ainsi, durant la semaine du 11 juillet 2011, les unités de bruit médiatique (UBM) « Défense et société » se plaçaient en 3ème position des thèmes gouvernementaux les plus traités sur le plan médiatique. Concernant la presse écrite, à 98 Ouest-France. « Guer. Le commandant Michelin reçoit le prix des Cadets. 22 juillet 2018 ». https://www.ouest- 2.& La résurgence de la menace terroriste
La vague d’attentats terroristes qui a débuté en janvier 2015 a marqué une deuxième phase d’augmentation de la visibilité médiatique des armées au cours des années 2000. Des pics d’UBM ont été constatés à chaque attaque, mais ce qui est intéressant de constater est que ces chiffres sont demeurés relativement stables dans les intervalles, et supérieurs à ceux d’avant 2013. A titre d’exemple, on a dénombré 70 000 UBM lors des attentats de novembre 2015 et 45 000 à l’occasion de l’attaque de Charly Hebdo. Au-delà de cette densification quantitative de la présence des militaires dans l’espace médiatique, il est à noter un changement de tonalité dans le traitement du fait militaire. En effet, la figure du soldat victime semble avoir progressivement laissé place à celle du soldat héros. Alors que l’embuscade d’Uzbin a été accompagnée de très nombreuses polémiques et productions médiatiques négatives (notamment sur l’équipement et le niveau de préparation des soldats ou sur la planification de l’opération), les morts des opérations Serval et Barkhane ont fait l’objet d’un traitement médiatique beaucoup plus bienveillant pour l’institution militaire, et respectueux pour les soldats dont le décès en opération suscite une émotion toujours croissante. « La tonalité est très différente aujourd’hui. Il y a un réapprentissage lent mais réel du sens de l engagement militaire et d’un certain nombre de réalités opérationnelles »101. 100 David DELFOLIE. « Sociologie d’une autre bataille, La couverture médiatique de l’intervention militaire en Libye. Analyse comparée : France, Royaume-Uni, Allemagne ». Étude de l’IRSEM, n° 20, 2013, p 29. 101 Pierre ALONSO. « Interview - Barkhane : une réapprentissage du sens de l’engagement militaire - Entretien avec Bénédicte Chéron ». Libération, 27 novembre 2019. https://www.liberation.fr/planete/2019/11/27/barkhane-un-reapprentissage-du-sens-de-lengagement-militaire_1765955/. 48
Le fait militaire de manière générale suscite donc aujourd’hui à la fois de l’attachement, de l’intérêt et une certaine fierté. Les sujets de défense ont repris une place importante dans les médias et trouvent un écho favorable auprès de la population française. c.& Une opinion publique favorable à l’industrie de défense et un concept de souveraineté que la crise sanitaire a remis au goût du jour
. 1.& Une industrie de défense qui conserve la confiance des Français
Contrairement à ce que nous pourrions penser, les Français soutiennent encore leur industrie de défense. En effet, un sondage récemment commandé par le Conseil des industries de défense françaises (CIDEF) révèle que 64% d’entre eux ont une image positive de ce secteur, que 63% souhaiteraient que les banques le soutiennent davantage, que 72% considèrent qu’il est nécessaire pour fournir aux armées les moyens de mener à bien leurs missions, et 70% lui reconnaissent un rôle dans le rayonnement de la France à l’étranger. Mais surtout, 67% des Français se disent favorables aux exportations, à conditions qu’elles soient plus contrôlées et que le gouvernement fasse preuve de plus de transparence sur le sujet102. Du côté des médias, rappelons qu’ils n’ont pas toujours été opposés aux exportations d’armement et que leur méfiance vis-à-vis de ce sujet est en somme assez récente. Elle est principalement née des polémiques qui ont accompagné les ventes d’armes vers les pays du Golfe et la crise engendrée par la guerre au Yémen. Concernant les parlementaires, comme nous l’a affirmé Monsieur le Député Gouttefarde, hormis quelques « irréductibles », la plupart d’entre eux ne présentent pas d’opposition de principe à l’endroit de l’exportation d’armes. Ils demandent surtout à être mieux informés et davantage concertés.
Michel CABIROL. « L'industrie de la défense garde la confiance des Français ». La Tribune, 11 juin 2021. https://www.latribune.fr/entreprises-finance/industrie/aeronautique-defense/lindustrie-de-la-defense-garde-la-confiance-des-francais-886563.html 49
Enfin, du côté des ONG, celles-ci disent généralement ne pas être fondamentalement opposées au commerce des armes, qui constitue une composante essentielle à notre défense militaire. En revanche, leur combat porte sur des ventes qui présentent des risques pour les Droits de l’Homme103.
2.& Le retour de la souveraineté
En
outre
, il est intéressant de noter que
la crise sanitaire a
re
donné
ses lettres de noblesse à un
concept
pendant longtemps déc
ri
é : celui de souveraineté nationale. En effet, l’épidémie de COVID-19 a mis en lumière les vulnérabilités de notre système s’agissant de l’approvisionnement pérenne en équipement de première nécessité en situation d’urgence. Les termes de souveraineté médicale, souveraineté alimentaire, souveraineté numérique etc. font aujourd’hui pleinement partie du vocabul de nos dirigeants et semblent être très bien perçus par la population française. En témoigne le sondage précédemment cité qui révèle que 75% des Français estiment que l’industrie de défense est indispensable pour assurer l’indépendance et la souveraineté nationale. En outre, 80% jugent l'importance de la souveraineté en matière d'industrie de défense essentielle. Les Français ne sont donc absolument pas hermétiques à tout ce qui concerne la chose militaire, et contrairement à ce que nous serions enclin à penser, ils ont une image plutôt positive et éclairée de leur industrie de défense. Nous ne sommes donc pas dans ce que Dominique Wolton décrirait comme une situation d’incommunication, où « le récepteur ne serait pas au rendez-vous », et encore moins dans un contexte d’acommunication où « émetteur et récepteur n’aurait plus rien à se dire» 104. Ce constat vient nuancer ce que nous pressentions dans nos deux premières hypothèses. En effet l’impasse communicationnelle que nous avions identifiée n’est que relative. Certes, le Gouvernement s’est retrouvé en grande difficulté lors de « l’affaire Disclose », 103
Jacques
M
AIRE, Michèle
T
ABAR
OT
, Rapport d
’information
sur
le contrôle des exportations d’armement...op.
cit.
,
p 63.
104
Dominique WOLTON. « Une théorie politique de la communication ». Hermès, 15 février 2021. https://hermes.hypotheses.org/4932.
50 pour autant, les effets de cette crise et le degré de défiance vis-à-vis de ce secteur semblent s’être vite estompés. B.! La nécessité de développer une véritable stratégie de communication a.& Les objectifs Les entretiens que nous avons pu effectuer ont révélé qu’il n’existait pas de véritable stratégie de communication autour de l’exportation d’armement. Cela paraît surprenant tant le sujet est sensible et incompatible avec toute forme d’improvisation. En outre, comme nous avons pu le montrer au cours de notre étude, il nous semble évident qu’aujourd’hui, le pouvoir exécutif n’a pas d’autre choix que de communiquer dessus. Il ne s’agit pas pour nous dans cette partie d’élaborer un pan de communication, mais ’en établir quelques principes structurants. 1.& Restaurer le consensus
La controverse autour de la vente d’armes aux pays du Golfe a mis en lumière le fait que le temps du consensus autour de l’exportation d’armement était révolu. Parlementaires, médias, ONG et citoyens se sont emparés du sujet et réclament aujourd’hui des comptes au Gouvernement. Tout en prenant en compte cette nouvelle donne, le pouvoir exécutif doit trouver les moyens, par une communication adéquate, de convaincre davantage. Les Français doivent être convaincus que la politique qui régit le commerce des armes se fait de manière particulièrement encadrée et respectueuse des règles éthiques. Le secret qui couvre cette politique fait qu’une part importante de cette activité demeurera confidentielle. Pour autant, il est important de convaincre les Français que « l’on ne vend pas des armes à n’importe qui » et que ces transactions sont indispensables à l’économie nationale et à leur sécurité. Comme nous l’avons vu précédemment, une majorité des Français fait confiance à son industrie d’armement et a conscience des enjeux que représente ce secteur. Mais l’opinion publique est mouvante et il est donc important de renforcer cette base de confiance et de l’étendre à la politique globale menée par le pouvoir exécutif. 2.& Prévenir les crises
Une stratégie de communication, en intégrant un plan de communication de crise, doit permettre sinon de prévenir d’éventuelles crises, du moins d’en atténuer les effets. Grâce à un plan de communication de crise élaboré dans un cadre interministériel, le pouvoir exécutif sera alors en mesure de diffuser des messages coordonnés et cohérents, de préparer les différents porte-parole qui seront amenés à s’exprimer sur le sujet, et diffuser efficacement de l’information. Contrairement à la façon dont il a réagi lors de « l’affaire Disclose », il pourra alors garder au maximum l’initiative de la communication en restant proactif. En outre, un plan de communication de crise sur le sujet semble relativement aisé à élaborer dans la mesure où les scénarii possibles sont faciles à identifier.
b.& S’appuyer
sur des
outils
class
iques
1.& Les cibles
Nous avons au cours de notre étude déjà identifié un panel de cibles communicationnelles à atteindre. Toutefois, il nous semble important d’en effectuer un découpage catégoriel ainsi qu’une hiérarchisation. Les cibles finales à atteindre sont d’une part la population française et d’autre part les institutions bancaires, et ce, pour des raisons à la fois démocratiques et stratégiques. C’est aux citoyens français que le Gouvernement doit rendre des comptes et c’est de leur soutien que dépend grandement la survie de ce secteur. Concernant les banques, nous avons vu à quel point leur pouvoir de nuisance était important et que leur réticence croissante à soutenir le secteur de l’industrie d’armement devenait très problématique. Pour atteindre ces cibles finales, il convient au pouvoir exécutif de viser quelques cibles relais. Nous pouvons identifier trois relais principaux : les parlementaires, les médias et les ONG. C’est auprès d’eux que les Français s’informent et se forgent une opinion. 2.& Les messages
L’analyse de la communication publique qui a accompagné « l’affaire Disclose » démontre que des messages et éléments de langage sur le sujet des ventes d’armes existent déjà. Ils mettent l’accent sur les enjeux sécuritaires, économiques et géostratégiques du 52 secteur. Ces arguments semblent aujourd’hui entendus par une large part de la population. En effet, 72% des Français reconnaissent à l’industrie de défense une fonction régalienne, 60% estiment que son rôle dans l’économie nationale est important et 72% sont conscients qu’elle est importante pour le rayonnement de la France à l’international105. Il nous paraît alors opportun de mettre l’accent sur l’aspect réglementé de ce secteur et de montrer que les décisions prises en la matière sont respectueuses de principes éthiques.
3.& Partis pris stratégiques et recommandations diverses
Il nous semble en premier lieu, comme nous l’avons déjà évoqué, que les messages émis sur le sujet des exportations d’armes doivent-être délivrés à plusieurs voix. Certes, le ministre des Armées est sans aucun doute celui qui détient la vision la plus exhaustive du sujet, mais lorsqu’il s’agit de mettre en avant les bienfaits des exportations pour l’industrie nationale, nous estimons que le message serait porté avec davantage de force s’il était relayé par le ministre de l’Économie et des finances. De la même manière, les enjeux géopolitiques liés à la région du Golfe gagneraient à être expliqués par le ministre des Affaires étrangères. Ensuite, nous pensons que les industriels devraient bénéficier d’une plus grande liberté d’initiative en matière de communication. Certes, la sensibilité du sujet fait que cette liberté doit être encadrée, mais nous pensons que la situation actuelle nuit au rayonnement de ce secteur. En effet, comme nous l’a affirmé Madame Delphine Sampic-Berger, non seulement les industriels ne reçoivent pas de directives, mais en outre ils sont fortement bridés dans leur communication. Un plan de communication qui comporterait des directives claires à l’attention des industriels bénéficierait à tout le secteur tout en évitant les incohérences et voix discordantes. Lors de « l’affaire Disclose », au cours de laquelle des industriels ont pourtant clairement été pointés du doigt, aucune consigne ne leur a été transmise. Ces derniers ont dû préparer isolément des éléments de langage au cas où il seraient interrogés, quitte à ce que ceux-ci soient en contradictions avec ceux du Gouvernement. Intégrer de la subsidiarité dans la communication tout en fixant un cadre général nous semble donc être particulièrement important. 105 Michel CABIROL, « L'industrie de la défense... », op. cit. 53 Ensuite, et comme nous l’analyserons plus en détail ultérieurement, ce que demandent les Français, c’est principalement de la transparence et du débat106. Il s’agit donc pour le pouvoir exécutif de mener davantage de campagnes d’information, de créer les conditions d’un débat sur le sujet, et de communiquer largement sur les mesures qui auront été prises pour aller dans ce sens. c.& Sans négliger les moyens indirects 1.& Mener des campagnes de contre influence contre certaines ONG
La communication autour de sujet sensibles étant, comme l’affirme Thierry Libaert, une communication de combat, nous pensons qu’il convient également d’être beaucoup plus offensif vis-à-vis des personnes et des organisations susceptibles de nuire à l’industrie de défense. Sans aller jusqu’à dire que « tous les coups sont permis », nous pensons toutefois que mener des opérations de contre influence à l’encontre de certaines ONG pourrait rendre leur parole moins audible. Selon Delphine Sampic-Berger, l’une des mesures à prendre serait de mener des enquêtes sur le financement de certaines d’entre elles. Il est de notoriété publique que certaines d’entre-elles sont financées par des pays qui profitent des difficultés que peut rencontrer la France, tant sur le plan géopolitique que commercial. Ensuite, l’acharnement que montre les ONG à incriminer la France mériterait d’être dénoncé. En effet, en 2019, notre pays était le plus visé par les critiques de ces organisations sur le sujet « armement ». Les trois principales ONG de défense des droits de l’Homme, à savoir Amnesty International, Human Rights Watch (HRW) et la Fédération Internationale des Droits de l’Homme (FIDH) ont mentionné la France dans 67% de leurs communiqués de presse traitant du sujet. Les États-Unis ne sont mentionnés que dans 39% des communiqués et le Royaume-Uni 50%107, alors même que ces deux pays vendent beaucoup plus d’armes aux pays du Golfe que la France. Nous estimons
106 Michel
CABIROL
, « L'
industrie
de
la dé
fense... », op. cit. 107 Jacques MAIRE, Michèle TABAROT, Rapport d’information sur le contrôle des exportations d’armement...op. cit., p 64.
cette indignation sélective des ONG pose question et mériterait d’être portée à la connaissance du grand public. Enfin, les méthodes employées par certaines ONG mériteraient également d’être rappelées. Par exemple, le fait qu’elles fassent systématiquement appel à l’émotion plutôt qu’à la raison, qu’elles simplifient à l’extrême la complexité de la réalité et qu’elles aient tendance à ignorer le contexte politique et historique d’une situation, tout cela afin de toucher l’opinion et de récolter des fonds. Il nous semble peu opportun que ce genre de campagne soit menées directement par le pouvoir public. En revanche, ces messages pourraient être portés par des tiers, comme par exemple des journalistes spécialisés dans les sujets de défense ou de géopolitique. A noter que si cet avis est partagé par Delphine Sampic-Berger, le Député Gouttefarde est quant à lui plus sceptique et craint que de telles opérations s’avèrent contre productives et se retournent contre le pouvoir exécutif.
2.& Présenter la guerre au Yémen sous un autre jour
S’agissant du Yémen, une stratégie de communication indirecte consisterait à présenter le conflit sous un jour sensiblement différent. Sans pour autant minimiser les souffrances de la population et la responsabilité des pays de la coalition arabe, il s’agirait de favoriser un regard moins manichéen sur cette guerre. A entendre la presse et les ONG, il s’agirait d’une guerre injuste menée par une coalition insensible aux Droits de l’Homme, contre des rebelles qui seraient de simples opposants politiques, avec au centre une population affamée par le blocus organisé par l’Arabie saoudite. Or, la réalité est plus complexe. La coalition arabe mène une guerre contre une milice Houthis composées d’extrémistes chiites, soutenus par l’Iran, et considérés par de nombreux pays comme terroristes. Ces derniers ont tenté en 2015 de renverser le pouvoir légitime en place et de s’emparer de la totalité du territoire. Le chaos qui s’en est suivi a permis à d’autres groupes terroristes comme Al-Qaïda dans la péninsule arabique (AQPA) ou l’État Islamique d’étendre leur influence sur le pays. Cette situation représentant une grave menace pour toute la région du Golfe, l’intervention pilotée par l’Arabie saoudite a été soutenue par l’ONU et donc par de très nombreux pays, à commencer par la France. Enfin, il serait opportun de rappeler que les exactions commises durant ce conflit ne sont pas l’apanage des troupes coalisées. Les Houthis en 55 commettent tout autant. Ils mènent une guerre insurrectionnelle, et ne reculent devant aucun crime de guerre pour parvenir à leurs fins. Meurtres, enlèvements, pillages, torture, viols, détournement des aides humanitaires ont été dénoncés par de nombreuses ONG ainsi que par l’ONU. En outre, les Houthis et leurs alliés se servent allègrement de la population comme bouclier humain et sont donc largement responsables des morts civiles. Il ne s’agit donc pas de nier les responsabilités de la coalition arabe, mais de favoriser une lecture équilibrée et plus juste de ce confli . L’État pourrait par exemple inciter à la diffusion de reportages sur le sujet (par exemple sur LCP - Assemblée Nationale), s’appuyer sur des spécialistes reconnus de la région ou encore commander auprès de Think Tanks tels que l’IFRI des analyses sur le conflit. C.! Faire effort sur la transparence a.& La transparence : principal objet de controverses Au-del
à
des
actions
possibles
à
mener
en ma
tière
de communication et d’
influence
,
il nous semble
que
l’exécutif
gagnerait
à faire preuve de plus de transparence afin de faire da
vantage
adhérer
à sa
politique étrangère
en matière
de ventes d’armes
. Comme
nous
l’avons déjà évoqué, les Français sont globalement favorables à leur industrie de défense, ils ont conscience qu’elle représente un véritable fleuron national, qu’elle est créatrice d’emplois et qu’elle est nécessaire à notre souveraineté. En revanche l’ensemble de la société déplore un profond manque de transparence de la part du Gouvernement. Cet avis est en effet partagé par les médias, par les parlementaires, par les ONG et par la population française (d’après Amnesty International, trois Français sur quatre pensent que le commerce des armes manque de transparence et devrait être davantage contrôlé108). Il n’y a donc pas de rejet profond vis-à-vis de ce secteur, mais une critique liée à son opacité, tout spécialement lorsqu’il s’agit des exportations. Or, cette opacité suscite la suspicion et alimente les controverses. Il importe donc au pouvoir public de faire preuve de plus de transparence, et de communiquer largement dessus 56 b.& Une cible à privilégier : les parlementaires 1.& Le rôle clef des parlementaires
En matière de transparence, nous estimons que l’effort doit être porté vers les parlementaires. Ce sont eux qui sont les plus à même de relayer des informations et des messages auprès du reste de la société civile, et en particulier auprès des ONG qui, comme nous l’avons déjà évoqué, sont très écoutées par la population française. Le Parlement doit pouvoir servir de relai entre les acteurs de la politique d’exportation d’armement, et la population. Or, aujourd’hui, il est « coincé » entre ceux qui décident (le pouvoir exécutif) et ceux qui critiquent (les ONG principalement, suivis par les médias et le reste de la population). Le rôle du Parlement nous semble donc absolument essentiel. Il est nécessaire de lui donner les moyens d’informer la population, mais également de relayer ses inquiétudes, plutôt que de laisser ce rôle exclusivement aux ONG. Pour cela, il faut que les parlementaires disposent d’informations nécessaires à une compréhension exhaustive de la politique d’exportation d’armes. Or, beaucoup d’entre eux se sont largement désintéressés de ce sujet.
2.& Fair
e preuve
de
transparence
et de pédagogie tout en rendant possible le débat
Il y a donc vis-à-vis des parlementaires des efforts de pédagogie et de transparence à faire, afin que ceux-ci soient en mesure de parfaitement s’approprier la politique d’exportation d’armement et jouer leur rôle de prescripteur auprès de l’opinion nationale. Aujourd’hui, la seule opération de transparence qui est menée par l’exécutif au profit des parlementaires repose sur la présentation et la diffusion annuelle du rapport sur les exportations. Or, d’autres actions pourraient être menées. Concernant la problématique de la protection du secret et de la classification défense, tout en comprenant parfaitement son importance, nous pensons qu’une réévaluation de son périmètre favoriserait un meilleur équilibre entre protection des intérêts de la France et accès à l’information. Certains parlementaires regrettent en effet « une interprétation parfois trop excessive du secret de la défense nationale qui les empêche d’avoir accès à 57 des informations109 ». Il est important de savoir que la classification d’un document est en général définie par son émetteur. Or, par excès de prudence, certains n’hésitent pas attribuer des degré de classification disproportionnés par rapport au niveau de sensibilité réel des informations contenues. Le rapport sur les exportations quant à lui est aujourd’hui critiqué à la fois par les ONG et par certains parlementaires. Certaines ONG affirment qu’il n’est pas un outil en faveur d’une plus grande transparence110, tandis que des députés lui reprochent de n’être pas suffisamment précis. Ce document officiel traite quatre principaux domaines : la politique d’exportation de la France, la démarche de soutien aux exportations, l’encadrement et l’organisation du contrôle des exportations des matériels de guerre et enfin le marché mondial de l’armement. Nous le trouvons plutôt didactique et clair. Les fondements de la politique française en matière d’exportations sont expliqués, la procédure autour de l’autorisation des licences est détaillée et des annexes donnent des précisions statistiques sur les ventes de l’année écoulée (nombre de licences accordées, pays destinataires etc.). En revanche, si ce document officiel donne des indications précises sur le fonctionnement de la CIEEMG, il n’explique pas les raisons qui ont prévalu à l’autorisation ou au refus des différentes licences. En outre, aucun détail n’est fourni sur les refus de licence. Or, permettre aux parlementaires de bien comprendre quelles sont les motivations de la CIEEMG et constater que de nombreuses demandes d’autorisation d’exportation sont éconduites chaque année, serait un bon moyen d’asseoir la légitimité de la politique du pouvoir exécutif. Cela contribuerait à prouver le niveau de robustesse du système de contrôle. Le pouvoir exécutif ne communique avec ses parlementaires qu’une seule fois par an sur le thème des exportations d’armement, à l’occasion de la présentation du rapport. Or, cela semble très peu au regard de l’importance des enjeux. Il pourrait être opportun que ces séances d’informations soient plus fréquentes. La France ne pourrait-elle pas avantageusement s’inspirer du modèle britannique, qui en plus d’un rapport annuel, 109 Jacques MAIRE, Michèle TABAROT, Rapport d’information sur le contrôle des exportations d’armement...op. cit., p 109. 110 Amnesty International. « Ventes d’armes de la France..., op. cit. 58 s’appuie sur des rapports trimestriels ainsi que sur une base de données (publiques) en ligne111? Enfin, afin de montrer la volonté de transparence du pouvoir exécutif, il nous semble nécessaire de favoriser le débat autour de la stratégie d’exportation de la France. Aujourd’hui, la présentation du rapport sur les ventes d’armes se tient uniquement devant la commission de la défense, donc dans un quasi huis clos. Situation surprenante dans la mesure où ce rapport est ensuite rendu public. En outre, il semblerait que lors de ces séances, ce sont surtout les controverses du moment qui sont abordées, et non les véritables sujets de fond112. Il nous paraît opportun d’élargir l’audience de cette séance de présentation, au moins à la commission des affaires étrangères et à celle des affaires économique. La participation de ces deux instances permettrait d’apporter un regard différent et complémentaire sur la politique d’exportation du Gouvernement, et ainsi d’enrichir le débat. Nous pouvons également imaginer à terme un débat public au sein de l’Assemblée nationale et du Sénat, au cours duquel le pouvoir exécutif pourrait expliquer sa stratégie et répondre aux questions de l’ensemble des parlementaires. Cette dernière partie de notre analyse montre donc à quel point il est important pour le Gouvernement de concevoir et mettre en œuvre une véritable stratégie de communication autour de ce sujet si sensible qu’est la politique d’exportation d’armement de la France. Cette stratégie doit être globale et pensée sur le temps long. Élaborée et déployée par les trois ministères concernés, il est nécessaire qu’elle s’appuie à la fois sur des procédés « conventionnels » de communication, mais également sur des manœuvres indirectes, tout en valorisant les efforts faits par le Gouvernement en matière de transparence, et ce, principalement à l’attention des parlementaires. Cette conclusion vient ainsi valider notre troisième hypothèse.
111 https://www.exportcontroldb.trade.gov.uk/sdb2/fox/sdb/ 112
Jacques MAIRE, Michèle TABAROT, Rapport d’information sur le contrôle des exportations d’arme
ment...op. cit., p 130. Conclusion
Cette étude avait pour objectif, à travers « l’affaire Disclose » de porter un regard critique sur la communication publique autour de l’exportation d’armement. Il s’agissait de comprendre comment l’État s’était retrouvé dans cette situation « d’impasse communicationnelle » et pourquoi il a montré de telles difficultés à délivrer un message cohérent et convaincant autour de sa politique d’exportation d’armement en général, et au Moyen-Orient en particulier. Nous avons pour cela commencé par procéder à une analyse générale de la communication du pouvoir exécutif autour de l’exportation d’armement. Cette première partie de notre étude nous a montré que l’État s’était efforcé depuis quelques années de mieux communiquer sur ce sujet. Cet effort de communication vise à un triple objectif : faire preuve de transparence dans le cadre du jeu démocratique ; susciter l’adhésion de l’opinion publique à la politique étrangère de l’État ; enfin, affirmer la puissance et l’influence de la France sur la scène internationale. Toutefois, il n’en demeure pas moins que la communication sur les ventes d’armes à l’étranger reste encore hésitante, et ce, principalement pour des raisons éthiques. Elle nous est apparue très sélective, et principalement orientée vers des contrats ne présentant pas de risques de controverses, à l’instar de ceux portant sur la vente d’avions de chasse Rafale à la Grèce ou de sousmarins à l’Australie. Ainsi, communiquer sur des exportations à destination de pays ne partageant pas nos idéaux démocratiques présente une véritable gageure dans une société où l’opinion publique est particulièrement vigilante quant au respect des droits de l’homme. La communication publique autour de l’exportation d’armement se présente 60 donc comme un parfait cas de communication sur un sujet sensible. En d’autres termes, la difficulté que rencontre le Gouvernement à communiquer sur les exportations d’armement tient en partie à l’objet même de cette communication, ce qui nous a permis de valider notre première hypothèse. Puis, une étude approfondie de « l’affaire Disclose » nous a permis de mettre en exergue une double défaillance dans la communication publique autour des ventes d’armes à l’étranger. Premièrement, alors que nous pensions que le Gouvernement avait péché par une mauvaise stratégie de communication, nous avons pu constater avec étonnement qu’en réalité, aucune véritable stratégie de communication portant sur la politique d’exportation d’armement n’a jamais été élaborée. Certes, comme nous l’avons vu, le Gouvernement a fait quelques efforts de transparence et de communication au cours des dernières années, mais cette démarche ne s’est pas inscrite dans le cadre d’un plan pensé sur le long terme, et en coordination avec les différents ministères concernés. Ce manque d’anticipation et de préparation explique en grande partie la seconde défaillance que nous avons pu relever, et qui concerne la mauvaise gestion de crise face aux révélations de Disclose. Hésitante, fragile et pleine de contradictions, la réponse gouvernementale nous est apparue bien inefficace face au caractère rationnel et argumenté de la charge lancée contre lui. Le pouvoir exécutif s’est placé en position de défensive et s’est révélé dans l’incapacité de faire entendre sa voix et de reprendre la main sur la communication. Ainsi, nous ne pouvons imputer les difficultés que rencontre le Gouvernement à communiquer sur sa politique d’exportation seulement au haut degrés de sensibilité du sujet. L’État a sa part de responsabilité dans cette situation « d’impasse communicationnelle ». En n’ayant pas développé de réelle stratégie de communication autour de son action, il n’a manifestement pas réussi à susciter l’adhésion et à limiter les effets de la crise engendrée par « l’affaire Disclose ». Cette seconde partie de notre analyse nous a donc permis de er notre seconde hypothèse. Enfin, nous nous sommes efforcés de formuler un certain nombre de recommandations qui selon nous permettrait de mieux faire adhérer l’opinion publique à la politique d’exportations d’armement et, sinon d’éviter, du moins de limiter les effets d’une crise comme celle provoquée par le dossier Disclose. 61 Nous avons tout d’abord été très surpris de constater qu’il existait un terreau plutôt favorable à une communication plus assumée sur le sujet. En effet, contrairement à ce que nous étions enclin de penser, non seulement les Français apprécient largement leur armée et manifeste une réelle appétence pour la chose militaire, mais surtout ils sont très favorables à leur industrie de défense et ont conscience de ce qu’elle représente pour l’économie nationale, pour le rayonnement et la place de la France dans le monde. Cette constatation nous permis de largement relativiser l’impact de « l’affaire Disclose » auprès de l’opinion publique. Du côté des journalistes, le constat est à peu près similaire. Très peu de médias parlent encore de ce dossier et même ceux qui s’étaient montrés les plus virulents au moment de la crise ne pensent même plus à évoquer le sujet lorsqu’ils interrogent la ministre des Armées. Les parlementaires quant à eux, hormis quelques opposants de principe, sont favorables à leur industrie de défense et conscients du caractère stratégique des exportations. Enfin, concernant les ONG, la plupart d’entre elles ne sont pas opposées au concept même d’exportation. En revanche, toutes réclament davantage de transparence et de contrôle. Nous avons alors pu identifier deux grands axes de recommandations. Le premier porte sur l’importance pour le pouvoir exécutif d’élaborer une réelle stratégie de communication afin de mieux fédérer l’opinion publique autour de sa politique d’exportation d’armement et de prévenir d’éventuelles nouvelles crises. Certes, comme nous venons de l’évoquer, les conséquences de « l’affaire Disclose » doivent être nuancées. Toutefois, il est une certitude que le consensus qui prévalait encore il y a quelques années n’existe plus aujourd’hui. L’opinion publique soutient son industrie de défense et les ventes d’armes à l’étranger, mais elle exige de l’information et veut s’assurer que la France ne vend pas des armes « à n’importe qui ». L’État n’a pas d’autre choix que de communiquer, et pour communiquer sur un sujet aussi sensible, il ne peut faire l’économie d’une véritable stratégie de communication. Selon nous, cette stratégie de communication doit être rédigée au niveau du Service d’information du gouvernement (SIG), mais doit ensuite s’appuyer sur le principe de subsidiarité pour laisser une certaine marge de manœuvre aux ministères les plus impliqués par le sujet, mais également aux industriels. Une telle stratégie favoriserait la cohérence et permettrait à tout ce secteur de porter avec plus d’efficacité ses messages et d’être plus solide en cas de crise. 62 Par ailleurs, la mise en œuvre de certaines tactiques indirectes mérite également d’être envisagée. Des campagne de contre influence vis-à-vis de certaines ONG, pourraient par exemple être menées, de même que des opérations de communication visant à présenter la guerre au Yémen de manière moins binaire que la version qui est aujourd’hui véhiculée par les ONG et une large partie de la sphère médiatique. Enfin, comme nous l’avons vu, l’une des clefs de la réussite réside d’une part dans la transparence, mais surtout dans la communication autour de la transparence. La transparence, comme nous avons pu le constater, est exigée à la fois par les citoyens, les médias, les parlementaires et par les ONG. Le Gouvernement a manifestement les moyens de rendre sa politique d’exportation d’armement moins opaque aux yeux du grand public, et ce, principalement en faisant effort sur les membres du Parlement. Ces derniers, comme nous l’avons montré, représentent certainement l’un des relais les plus efficaces des messages du pouvoir exécutif. Ainsi, le Gouvernement pourrait par exemple procéder à une réévaluation du périmètre de classification des informations, ou encore dispenser une information plus fréquente et plus complète sur sa politique de ventes d’armes. Mais pour des raisons évidentes que nous avons évoquées au cours de notre étude, la transparence sur un sujet aussi stratégique ne pourra jamais être ni totale, ni même suffisante aux yeux du grand public. La communication jouera alors un rôle de premier plan pour valoriser les efforts qui seront tout de même faits en la matière. En d’autres termes, il s’agira davantage pour l’État de donner des gages de transparence que de vraiment faire preuve de limpidité. Cette dernière partie de notre analyse confirme donc ce que nous avions pressenti dans notre troisième hypothèse. Enfin, la crise engendrée par « l’affaire Disclose » a eu des effets directs et indirects négatifs pour le secteur de l’industrie de défense et pour la crédibilité de la parole publique, alors même que les révélations étaient d’une gravité toute relative. Certes, les conséquences de cette affaire sont à nuancer, mais cela interroge néanmoins sur la capacité de l’État à assumer une crise de plus grande ampleur. Qu’en aurait-il été par exemple s’il avait été prouvé que des munitions de fabrication française avaient été responsables de la mort de civils innocents, à l’instar de la bombe de fabrication américaine qui a détruit un bâtiment de Sanaa au mois d’août 2017, faisant 16 morts et 17 blessés civils, parmi lesquels une fillette de cinq ans dont la photo a fait le tour du 63 monde113? D’où l’importance pour le pouvoir exécutif de développer au plus tôt une véritable stratégie de communication autour de ce sujet et de donner à l’opinion publique des gages de transparence
. Bibliographie •& Communication / influence Ouvrages BERNAYS (Edward). - Propaganda. - Paris : zones, octobre 2007, 142 p. D’ALMEIDA (Nicole). - Les promesses de la communication. - Paris: Presses Universitaires de France, 2012, 272 p. LIBAERT (Thierry). - Communication de crise. - Montreuil : Pearson, 2018, 246 p. LIBAERT (Thierry). - La transparence en trompe-l’œil. - Paris: Descartes & Cie, 2003, 166 p. MATTELART (Armand). - La communication-monde : Histoire des idées et des stratégies. Paris : La Découverte, 1999, 356 p. NARCISSE (Nicolas). - Le devoir d’influence manifeste pour une nouvelle communication. Paris: O. Jacob, 2013, 208 p. SALMON (Christian). - Storytelling: la machine à fabriquer des histoires et à formater les esprits. - Paris: La Découverte, 2008, 251 p. scientifiques
113 Amnesty International. Une bombe américaine tue et mutile des enfants au Yémen. 21 septembre 2017. https://www.amnesty.fr/actualites/une-bombe-americaine-tue-et-mutile-desenfants-au-yemen. 64 ALLARD-HUVER, François, et LIBAERT, Thierry. - « Les cinq registres de la communication sur les sujets sensibles ». - Parole Publique, n°7, 1er novembre 2014, pp. 14!18. ALLARD-HUVER, François, et LIBAERT, Thierry. - « La communication sur les sujets sensibles au prisme des sciences de l’information et de la communication ». - Communiquer. Revue de communication sociale et publique. - no 11, 1er février 2014, pp. 81!100. GENDRON, Corinne. - « Penser l’acceptabilité sociale : au-delà de l’intérêt, les valeurs ». Communiquer. Revue de communication sociale et publique. - no 11, 1er février 2014), pp. 117!129. LIBAERT, Thierry. - « Faire accepter un projet : principes et méthodes ». - Communication & Langages. - vol. 117, no 1, 1998, pp. 76!90. Sites internet TEMAN, Francis. - La communication sensible : pourquoi, comment? - 2018. https://www.bridge-communication.com/2018/08/29/la-communication-sensible-pourquoicomment/. [Consulté le 25/05/2021]. WOLTON, Dominique. - « Une théorie politique de la communication ». - Hermès, 15 février 2021. https://hermes.hypotheses.org/4932. [Consulté le 31/08/2021]. J’étudie la Com’. - Schéma de la communication selon Riley et Riley. https://jetudielacom.com/schema-de-communication/#prettyPhoto. [Consulté le 13/07/2021]. •& Industrie d’armement, armées et politique étrangère Ouvrages BELLAIS (Renaud), FOUCAULT (Martial) et OUDOT (Jean-Michel). - Économie de la défense. - Paris : La Découverte, collection Repères, 2004, 128 p. BERAUD-SUDREAU (Lucie). - French arms exports: the business of sovereignty. - London: Routledge, International Institute of Strategic Studies, 2020, 188 p. 65 CHÉRON (Bénédicte). - Le soldat méconnu : les Français et leurs armées. - Malakoff : Armand Colin, 2018, 192 p. DUSSAUGE (Pierre), CORNU (Christophe). - L’industrie française de l’armement: Coopérations, restructurations et intégration européenne. - Paris: Economica, 1998, 225 p. POIRET (Anne). - Mon pays vend des armes. - Paris, Les Arènes, 2019, 297 p. GAUTIER (Louis). - La défense de la France après la Guerre froide: politique militaire et forces armées depuis 1989. - Paris: Presses universitaires de France, 1ère éd. Collection Major. Service public, 2009, 580 p. Articles scientifiques BELLAIS, Renaud et BOULANGER, Philippe. - « Les pays arabes, meilleurs amis de la France et de son industrie d’armement ». - Aerion, 26 novembre 2018. BERAUD-SUDREAU, Lucie. - « La politique française de soutien à l’export de défense : raisons et limites d’un succès ». - Focus stratégique. - n°73, Ifri, juin 2017, 46 p. BERAUD-SUDREAU, Lucie. - « Un changement politisé dans la politique de défense ». Gouvernement et action publique. - vol. 3, no 3, 20 octobre 2014, pp. 79!103. BLANC, Florent, LOISEL, Sébastien et SCHERRER, Amandine. - « Politique étrangère et opinions publiques : les stratégies gouvernementales d’influence et de contrôle de l’opinion publique à l’épreuve de son internationalisation ». - Raisons politiques. - vol. 19, n° 3, 2005, pp. 119!41. BLOCH, Emmanuel. - « Commerce des matériels de défense et de sécurité : responsabilités éthiques de l’État et des industriels ». - Revue Défense Nationale. - vol. 815, no10, 2018, pp. 65!72. BOUREILLE, Patrick. - « La communication de l’exécutif français autour de l’outil de dissuasion 1945-2015 ». - Stratégique. - vol. 118, no 1, 2018, pp. 83!92. CHARILLON, Frédéric. - « L’éthique : le nouveau mot d’ordre de la politique étrangère française ? ». - Revue internationale et stratégique. - vol. 67, n°3, décembre 2007, pp. 87!94. 66 CHERON, Bénédicte. - « L’expérience militaire dans les médias (2008-2018), Une diversification des formes de récits ». - Étude de l’ IRSEM, n° 66, avril 2019, 90 p. DELFOLIE, David. - « Sociologie d’une autre bataille, La couverture médiatique de l’intervention militaire en Libye. Analyse comparée : France, Royaume-Uni, Allemagne ». Étude de l’IRSEM, n° 20, 2013, 52 p. FREMEAUX, Jacques. - « La France et les exportations d’armements au Proche-Orient de la fin de la guerre d’Algérie à la première guerre du Golfe ». - Revue Historique des armées, n°246, 2007, pp. 2-4. MIELCAREK, Romain. - « Les ventes d’armes, un outil d’influence ». - Areion. 30 octobre 2018. PAPAEMMANUEL, Alexandre et WENDEL, Yann. - « Dépasser les préventions du secteur financier à l’égard d’un « dirty » business? Le nécessaire soutien à l’industrie de défense ». L’Hétairie. - n°9, 1er mars 2018, 14 p. TENZER, Nicolas. - « Éthique de responsabilité et éthique de conviction : l’intellectuel et le politique dans les démocraties modernes ». - Quadrige, 2007, pp. 103!24. ALONSO, Pierre. « Interview - Barkhane : une réapprentissage du sens de l’engagement militaire - Entretien avec Bénédicte Chéron ». Libération, 27 novembre 2019. https://www.liberation.fr/planete/2019/11/27/barkhane-un-reapprentissage-du-sens-de-lengagement-militaire_1765955/. [Consulté le 4 septembre 2021]. CABIROL, Michel. « L'industrie de la défense garde la confiance des Français ». La Tribune, 11 juin 2021. https://www.latribune.fr/entreprises-finance/industrie/aeronautique-defense/l- industrie-de-la-defense-garde-la-confiance-des-francais-886563.html. [Consulté le 30 août 2021]. CABIROL, Michel.
« Rafale : la Grèce achète un avion de combat "Made in Europe" ». La Tribune, .
defense/
rafa
le
-
la grece
-
achete
- -
.html
. [Consulté le 12 juillet 2021].
CABIROL, Michel. « Armement : la bombe incendiaire de la filière défense (GICAT) contre les banques françaises ». La Tribune, 21 octobre 2020. https://www.latribune.fr/entreprisesfinance/industrie/aeronautique-defense/armement-la-bombe-incendiaire-de-la-filiere-defensegicat-contre-les-banques-francaises-860045.html. [Consulté le 25 mai 2021]. CABIROL, Michel. « La mort programmée de l’industrie française d’armement exportatrice ». La Tribune, 30 septembre 2020. https://www.latribune.fr/opinions/la-mort-programmee-de-lindustrie-francaise-d-armement-exportatrice-858506.html. [Consulté le 25 juin 2021].
| 50,027
|
2018AIXM0631_4
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,018
|
Etude des régimes d'instabilités de combustion basse fréquence lors d'un incendie dans une enceinte mécaniquement ventilée
|
None
|
French
|
Spoken
| 7,387
| 12,264
|
En 2016, Beji et Merci, chercheurs de l’Université de Ghent, ont comparé les résultats obtenus en utilisant la version 6 du code FDS aux mesures effectuées dans le cadre des essais PRISME2 (Prétrel et al., 2016). FDS reproduit de façon satisfaisante les oscillations BF, mais avec une fréquence double de celle observée expérimentalement, 10 mHz vs. 5 mHz. Cette étude montre que le modèle d’évaporation local (i.e. l’évaporation est calculée localement dans chaque cellule de calcul situées juste au-dessus de la surface du combustible liquide) implémenté dans FDS permet de rendre compte d’une occupation partielle de la surface de la nappe combustible par la flamme. C’est la raison pour laquelle ce modèle a été utilisé dans la présente étude. 4 https:// gforge.irsn.fr/gf/project/calif3s/ Page 100 sur 156 SIMULATION NUMERIQUE
Les essais PRISME2 ont été également simulés par Prétrel et al. (2016) à l’aide du code CALIF3S-ISIS. Contrairement à celui implémenté dans FDS, le modèle d’évaporation utilisé dans le code CALIF3S-ISIS calcule le taux de dégagement des vapeurs combustibles de façon globale, sur toute la surface de la nappe. Il suppose de plus que la température de surface du liquide est proche de sa température d’ébullition. La validation du code CALIF3S-ISIS sur un des essais PRISME2 (noté S3 dans Prétrel et al., 2016) a montré que le code CALIF3S-ISIS reproduit bien le débit d’évaporation moyen et les oscillations BF. Cependant, la fréquence dominante de ces oscillations est surestimée (14 vs. 6,6 mHz), alors que leur amplitude est sous-estimée (5 vs. 14 g/s). Les auteurs attribuent ces écarts au fait que le déplacement de la flamme n’est pas correctement simulé par le modèle global d’évaporation. Les travaux en cours, réalisés dans le cadre de la thèse de Perez Segovia et al. (2017), consistent à valider le code CALIF3S-ISIS par confrontation avec les résultats de la présente étude. On citera également les travaux de thèse de Pi (2015) où une approche zonale a été combinée à un modèle (N − τ). Le présent travail s’inscrit dans la continuité de ces études. Il se propose d’utiliser le code SAFIR, développé par l’IUSTI, pour décrire ce comportement oscillatoire. Le code SAFIR, ainsi que quelques cas de validation, ont été présentés dans des travaux antérieurs (e.g. Consalvi et al. 2003, 2005 , 2005b, 2008 ; Kadoch et al., 2013). Dans Consalvi et al. (2008), l’étude a porté sur l’implémentation d’un modèle de pyrolyse du PMMA. Les résultats obtenus, par cette version à débit calculé, se sont révélés en bon accord avec l’expérience. Dans ce chapitre, on décrit tout d’abord les fonctionnalités du code SAFIR, ainsi que les modifications apportées, relatives à l’implémentation du modèle d’évaporation d’une nappe d’hydrocarbure. On présente ensuite les résultats numériques concernant la simulation de l’essai 26 relatif à un feu de nappe d’heptane de 18 cm dans une configuration du dispositif NYX où toutes les parois sont en acier recouvert de silicate de calcium.
Page 101 sur 156 SIMULATION NU
MERIQUE 6.1 Présentation du code de calcul SAFIR
Le code SAFIR permet une description 3D, stationnaire ou instationnaire, de l’écoulement compressible et réactif, à bas nombres de Mach et de Froude, caractéristique d’un incendie. L'ensemble des phénomènes de base qui régissent le développement et la propagation du feu sont pris en compte : transports de gaz, turbulence, combustion turbulente et rayonnement. Le code prend en compte la présence de régions dites « bloquées », régions solides présentes dans le domaine de calcul (bac de combustible, cloisons, obstacles, cibles, soffite, etc.). De type volumes finis, la méthode de résolution numérique des équations de transport repose sur un algorithme spécifique aux écoulements à faible nombre de Mach, permettant d'intégrer, sur un maillage cartésien non uniforme, les couplages non linéaires liés aux gradients importants de densité et de pression. Le schéma d’intégration est totalement implicite, y compris le traitement des conditions aux limites, ce qui garantit sa stabilité inconditionnelle quel que soit le pas de temps (les limitations liées au pas de temps ont pour unique origine l'instationnarité de l'écoulement). La technique dite « des régions bloquées » permet, par la modification des équations discrétisées, de traiter les régions solides du domaine physique avec le même algorithme, et de façon simultanée. La prise en compte des régions bloquées dans la résolution totalement implicite des équations de transport a nécessité une modification radicale des coefficients de l’équation algébrique afin de reconstituer les véritables conditions physiques sur les faces de ces régions bloquées, comme cela est fait aux parois. On rappelle ci-dessous les principales fonctionnalités du code, ainsi que le modèle mathématique et la méthode de résolution numérique.
Page 102 sur 156 SIMULATION NUMERIQUE
6.1.1 Fonctionnalités du code
Les fonctionnalités principales du code SAFIR sont données dans le Tableau 5.
Tableau 5 : Fonctionnalités du code SAFIR. Aspects physiques
• Configuration géométrique : mono ou multi-compartiment. • Phase gazeuse : elle est newtonienne et constituée de 6 espèces chimiques : combustible, CO, O2, CO2, H2 O, N2, considérées comme des gaz parfaits, l’espèce combustible ayant pour formule chimique Ca Hb Oc. Le nombre de Lewis (rapport du nombre de Prandtl et de Schmidt) est unitaire et les coefficients de diffusion thermique et de diffusion des espèces chimiques sont égaux (flamme équidiffusive). • Coefficients de transport de la phase gazeuse : la viscosité dynamique moléculaire et les propriétés thermodynamiques de chacune des espèces gazeuses dépendent de la température du gaz. • Turbulence : La turbulence est décrite par le modèle k − ε standard (Launder et Spalding, 1972), incluant la production/destruction de turbulence due à la gravité. • Combustion : la combustion est une réaction chimique à 1 étape ou 2 étapes (production de CO intermédiaire) avec la possibilité d’introduire une limite inférieure d’inflammabilité (Hu et al., 2007). • Combustion turbulente : Le modèle « Eddy Dissipation » de Magnussen et Hjertager (1977) est utilisé pour le calcul du taux de consommation du combustible. • Rayonnement : la phase gazeuse est considérée comme un milieu gris absorbant, émettant et non diffusant. Le rayonnement est calculé par l'équation de transfert radiatif (ETR) (Modest, 1996). La contribution des suies au coefficient d’absorption est calculée à partir de la fraction volumique de suies fvs et de la température du gaz par la relation de Kent et Honnery (1990) ; celle des produits gazeux peut être calculée de deux façons différentes : par le modèle RADCAL (Grosshandler, 1993) ou par la relation de Magnussen et Hjertager (1977) selon que l’on considère ou non la dépendance en température du coefficient d’absorption de ces mêmes espèces. Le modèle de suie repose sur une seule équation de transport de la fraction massique de suies en considérant qu'une partie du combustible (quelques pourcents, typiquement)
Page 103 sur 156 SIMULATION NUMERIQUE
se transforment en suies. Les suies produites sont supposées en équilibre dynamique et thermique avec la phase gazeuse. • Pression thermodynamique : en milieu ouvert ou faiblement confiné, la pression thermodynamique est égale à la pression ambiante. En milieu confiné, elle peut évoluer au cours du temps en fonction des conditions de ventilation. Elle est alors calculée à partir de l’équation de bilan de masse étendue au volume du local. • Loi de paroi : Aux parois et sur les faces des régions bloquées, l’énergie cinétique de turbulence et son taux de dissipation sont déterminés en utilisant une loi de paroi (LDP) hors-équilibre afin de traiter les zones de stagnation ou de séparation de l’écoulement (Chieng et Launder, 1980). • Conditions aux limites du domaine : différents types de limites sont considérés : paroi conductrice ou adiabatique, plan de symétrie, frontière libre (écoulement entrant ou sortant), ouverture libre (écoulement entrant ou sortant) ou imposée (injection volumique, injection massique ou ventilation) en paroi. • La conduction dans les régions « bloquées », mono ou multi-matériau, est traitée en résolvant l’équation de la chaleur en trois dimensions, celle dans les parois, mono ou multi-matériau, est traitée en résolvant l’équation unidimensionnelle de la chaleur. • Le coefficient de transfert de chaleur par convection peut être imposé aux parois et sur les faces des régions bloquées par l’utilisateur, calculé au moyen de corrélations empiriques (Holman, 1990) ou déduit de la LDP. • Le code intègre une base de données constituée de 11 combustibles (méthane, acétylène, éthylène, éthane, propylène, propane, pentane, heptane, dodécane, éthanol, méthyl-méthacrylate), incluant les coefficients des polynômes de la viscosité et de la chaleur spécifique du gaz en fonction de la température. Aspects numériques • La résolution des équations de transport de la phase gazeuse, de type volumes finis, est totalement implicite, y compris aux parois et sur les faces des régions « bloquées ». • Les maillages du domaine, des parois et des régions bloquées, sont cartésiens non uniformes. • Le couplage des équations de transport est assuré par la procédure itérative PISO (Issa, 1986). • L’ETR est résolue par une méthode explicite de type volumes finis. Page 104 sur 156 SIMULATION NU
MERIQUE 6.1.2 Modèle mathématique Equations générales
Le comportement de l'écoulement gazeux compressible est décrit par les équations de conservation de masse, de quantité de mouvement et d’energie en moyenne de Favre, complétées par celles du modèle de turbulence k − ε standard (Launder et Spalding, 1972), prenant en compte les effets de flottabilité, et du modèle de suie à une équation. Compte tenu des hypothèses formulées précédemment et en omettant les symboles de moyenne, les équations de transport de la phase gazeuse s’écrivent sous la forme générique suivante:
∂ ∂ ∂ ∂Φ (ρΦ) + (ρUj Φ) = (ΓΦ ) + SΦ ∂t ∂xj ∂xj ∂xj
Le coefficient de diffusion ΓΦ et le terme source SΦ sont rassemblés dans le Tableau 6. Dans ce tableau, le terme P représente un terme de production de l'énergie cinétique dû aux contraintes de cisaillement : 1 ∂ui
∂uj ∂ui 2 2 2 P = 2μt [ ( + ) ] − μt (∇⃗⃗. u ⃗⃗) − ρk(∇⃗⃗. u ⃗⃗) 2 ∂xj ∂xi ∂xj 3 3
Le terme W représente le terme de production/destruction lié à l'interaction gravitationnelle qui peut s’exprimer de différentes façons (voir Van Maele et Merci, 2006): • Le modèle SGDH (Simple Gradient Diffusion Hypothesis) :
W=− • ρ0 μt ∂T g ρTσt ∂y
Le modèle GGDH (Generalized Gradient Diffusion Hypothesis) :
W= 3 ρ0 μt ∂T ′′ ′′ (−ρũ )g j uk 2 2 ρ Tσt k ∂xk avec 1 ∂uj ∂uk 1 ∂ul 2 ′′ ′′ −ρũ + )− δjk ] − ρkδjk j uk = 2μt [ ( 2 ∂xk ∂xj 3 ∂xl 3
Page 105 sur 156 SIMULATION NUMERIQUE
Tableau 6 : Résumé des équations de transport de la phase gazeuse sous forme générique. Conservation de Φ Uj ΓΦ SΦ Masse 1 uj 0 0 − ∂p + (ρ − ρ0 )gi ∂xi Quantité de mouvement ui Enthalpie h uj μ μt + Pr σt Energie cinétique de turbulence k uj μ+ μt σk P + W − ρε Taux de dissipation de k ε uj μ+ μt σε ε ε2 Cε1 [P+Cε3 max(W, 0)] − Cε2 ρ k k Fraction massique des suies Ys uj + ujth μt σt ω̇ s Fraction massique des espèces Yα uj μ
μt + Sc σt ω̇
α uj μeff + ∂uj 2 ∂ ∂uk [μeff − (μeff + ρk) δij ] ∂xj ∂xi 3 ∂xk −∇⃗⃗. q⃗R avec μ ∂lnT μeff = μ + μt ; μt = Cμ ρ k 2 ⁄ε ; ujth = −0,54 ρ ∂xj Par
défaut :
Cμ =
0,09;
Cε
1 = 1,44; C
ε
3 = 1,44; Cε2 = 1,92 ; σk = 1,0; σε = 1,3; σt = 0,7
Equations d'état et coefficients de transport
Dans l’approximation à bas nombre de Mach et en supposant que la phase gazeuse se comporte comme un mélange idéal de gaz parfaits, l’équation d’état s’écrit finalement : pth (t) = ρRT ∑ α Yα Mα où pth est la pression thermodynamique, T la température du gaz et R =8,3143 J/mol/K.
Page 106 sur 156 SIMULATION NUMERIQUE
En mileu confiné, la pression thermodynamique est calculée à partir de l’équation de bilan de masse étendue au volume du local : ∂ρ dV = ∫∫ ρu ⃗⃗. n⃗⃗int A V ∂t Ai ∫ où n⃗⃗int est la normale unitaire intérieure à la paroi. En utilisant l’équation d’état, on obtient après dérivation :
dpth ∫V = dt ρ ∂T T ∂t dV − ∫V ρ ∂M M ∂t M 1 ∫ R V T dV + somq dV
où le terme somq = ∫∫A ρu ⃗⃗. n⃗⃗int dA représente la somme des débits massiques entrant et i sortant par les ouvertures du domaine et du débit massique d’évaporation du combustible ṁ. L’enthalpie massique de l’espèce α, à la température T, se compose de l’enthalpie de formation à une température de référence et d’une enthalpie sensible : hα (T) = 0
∆hf,α (Tref ) + T ∫ Tref cpα (T′)dT′
La chaleur massique à pression constante de l’espèce α, cpα, et l’enthalpie de formation à 0 la température de référence, ∆hf,α (Tref ), s’expriment en fonction de la température par des polynômes de degrés 4 et 5 dont les coefficients sont extraits de la base de données thermodynamiques CHEMKIN (Kee et al., 1992) et de celle, plus complète, de Burcat (2001). L’enthalpie et la chaleur massique du mélange sont définies par : N h = ∑N α=1 Yα hα et cp = ∑α=1 Yα cpα (T) A noter qu’en raison de la dépendance en température des chaleurs massiques des espèces chimiques, le calcul de la température à partir de l’enthalpie nécessite une procédure itérative. L’obtention de la solution ne nécessite cependant que quelques itérations. Page 107 sur 156 SIMULATION NUMERIQUE
La viscosité dynamique du mélange est calculée à partir de la relation empirique de Mathur et al. (1967) où la viscosité dynamique de chacune des espèces constituant la phase gazeuse est donnée par la théorie simplifiée de la cinétique des gaz. L’utilisation dans le code SAFIR de polynômes d’ajustement de degré 3 pour le calcul des viscosités d’espèces permet un gain de temps notable sans altération de la solution.
6.1.3 Résolution numérique
La méthode de résolution utilisée pour la résolution des équations de transport est totalement implicite. L'équation générique est discrétisée sur un pas de temps, Δt = t n+1 − t n, de la façon suivante:
n+1 ∂ ∂ ∂ ∂Φ (ρΦ)n+1 + (ρUj Φ)n+1 = (ΓΦ ) ∂t ∂xj ∂xj ∂xj
+
SΦn
+1 Un schéma de type Euler décentré d'ordre 2 est employé pour la discrétisation temporelle La discrétisation spatiale s'effectue par la méthode des volumes finis (Patankar, 1980). Les flux convectifs sont approchés par un schéma upwind, les termes diffusifs par un schéma centré d'ordre 2. Le couplage vitesse/pression est basé sur l’algorithme PISO itératif (Issa, 1986) dont la séquence permet de prendre en compte les variations de pression et de satisfaire l’équation de continuité de la phase gazeuse à chaque étape de temps. La dominance diagonale, évoquée précédemment, peut être renforcée en effectuant une linéarisation du terme source SΦ relatif à la variable Φ. Elle permet d'accélérer la convergence de la solution et d'éviter l'apparition de solutions non physiques. Le terme source de l'équation générique est donc mis sous la forme: SΦ = SpΦ Φ + ScΦ avec la contrainte :
SpΦ < 0. Le système algébrique qui résulte de la discrétisation des équations de transport est résolu, de façon itérative, à l'aide de l'algorithme TDMA (Tri-Diagonal Matrix Algorithm) appliqué à chaque direction. Contrairement aux méthodes directes, cette méthode ne nécessite pas la construction d'une matrice et son inversion ultérieure, ce qui limite considérablement la capacité mémoire requise.
Page 108 sur 156 SIMULATION NUMERIQUE
La prise en compte des régions bloquées dans la résolution totalement implicite des équations de transport a nécessité une modification radicale des coefficients de l’équation algébrique afin de reconstituer les véritables conditions physiques sur les faces de ces régions bloquées, comme cela est fait pour les conditions pariétales. A chaque pas de temps, les variables calculées d'une itération à l'autre peuvent varier de façon brutale, ce qui peut nuire à la convergence de la solution. La technique de relaxation inertielle proposée par Patankar (1980) est introduite pour amortir ces variations brutales en corrigeant la solution obtenue, en un point courant P, à l'itération interne ν + 1: ΦPν+1,new = Cr Φ ν+1,old + (1 − Cr )Φν où Cr est la constante de sous-relaxation (0 ≤ Cr ≤ 1). La détermination des coefficients de sous-relaxation dépend fortement du problème traité. De nombreux essais numériques nous ont permis d'observer qu'une valeur trop élevée de ces coefficients de relaxation peut conduire à une divergence du calcul, alors qu'une valeur trop faible ralentit la convergence et même dans certains cas, peut également faire diverger le calcul. En ce qui concerne l’équation de transfert radiatif (ETR), celle-ci est résolue par la méthode des volumes finis (MVF) (Raithby et Chui, 1990). L’intérêt majeur de cette technique de résolution réside dans le fait qu’elle peut être utilisée sur le même maillage que celui utilisé pour calculer l’écoulement. On conserve ainsi la même discrétisation spatiale pour toutes les équations. De plus, la MVF est conservative, ce qui assure un bilan exact pour chaque composante discrète de la luminance. Il en est de même pour les flux. La MVF implique le calcul de la luminance au centre de chacun des volumes élémentaires du domaine de calcul, connaissant les luminances aux frontières. Ce calcul est réalisé en utilisant le schéma d’interpolation STEP d’ordre un (Modest, 1996). La methode de résolution de l’ETR dans tout le domaine utilise une procédure explicite directe de marche en avant. La solution numérique est obtenue en partant d’un coin du domaine de calcul, selon le signe des cosinus directeurs associés à une direction optique. L’algorithme a été généralisé pour tenir compte de la présence des régions bloquées dans le domaine de calcul.
Page 109 sur 156 SIMULATION NUMERIQUE
6.2 Modélisation de l’évaporation d’une nappe d’hydrocarbure
Dans le cadre de cette thèse, le code a été étendu à la combustion d’une nappe d’hydrocarbure liquide par intégration d’un modèle d’évaporation.
6.2.1 Modèle d’évaporation d’une nappe d’hydrocarbure
Le modèle d’évaporation utilisé est celui qui a été implémenté dans le logiciel Fire Dynamics Simulator (FDS) (McGrattan et al., 2013 ; Van Hees et al., 2012 ; Beji et Merci, 2016 ; Sikanen et Hostikka, 2016)). Hypothèses du modèle
Ce modèle repose sur les hypothèses suivantes : 1. Le liquide est considéré comme un milieu semi-transparent (MST) gris absorbantémettant et non diffusant ; 2. La conduction thermique dans le liquide est unidimensionnelle, dans la direction normale à la surface ; 3. La convection dans le liquide est négligée ; 4. L’évaporation se produit à la surface du liquide ; 5. La condensation du combustible n’est pas considérée ; 6. Les propriétés thermo-physiques du liquide, à savoir sa masse volumique, sa conductivité thermique et sa chaleur spécifique, sont constantes ; 7. La régression de l’interface gaz/liquide n’est pas considérée ; 8. Le fond du bac est considéré comme adiabatique.
Equations générales
Compte tenu de ces hypothèses, l’équation de bilan de l’énergie régissant l’évolution de la température du liquide Tl (x, t) dans la direction y⃗, normale à l’interface gaz/liquide, s’écrit :
Page 110 sur 156 SIMULATION NUMERIQUE
ρl cpl ∂Tl ∂ 2 Tl − λl = −∇⃗⃗ ⋅ q⃗l,rad ∂t ∂y 2 (22)
où ρl est la masse volumique du liquide, cpl sa chaleur spécifique, λl sa conductivité thermique et q⃗l,rad le flux de chaleur radiatif. La divergence du flux radiatif, ∇⃗⃗ ⋅ q⃗l,rad pour un milieu émettant, absorbant et non diffusant, est calculée à l’aide de l’approximation de Schuster-Schwarzschild (ou quadrature S2 non symétrique) (Modest, 1996) :
∇⃗⃗ ⋅ q⃗l
,
rad = + − dql,rad,ν dql,rad − dy dy
(23) Les demi-flux radiatifs dans les hémisphères avant (dans la direction y⃗) et arrière + − (dans la direction −y⃗), ql,rad et ql,rad, sont solutions des équations différentielles ordinaires suivantes :
+ dql,rad + + = 2κl [σTl4 − ql,rad ] dy (24) − dql,rad − = 2κl [σTl4 − ql,rad ] dy (25) −
En exprimant la divergence du flux radiatif à l’aide des équations (24) à (25), l’équation (22) devient :
ρl cpl ∂Tl ∂ 2 Tl + − = λl + 2κl (ql,rad + ql,rad ) − 4κl σTl4 ∂t ∂y 2 (26) Les conditions
initiales
et
aux limites associées
sont données par :
- Conditions initiales : Tl (y) = Tl0 - (27) Condition
aux limites
à
l
’
interface gaz/liquid
e (y = 0) : −λl ∂Tl | = hconv,0 (T − Tl ) − ṁ′′ ∆hv ∂y y=0 + − (0) = ε0 qext + (1 − ε0 )ql,rad ql,rad (0)
Page 111 sur 156
(28)
(29)
SIMULATION NUMERIQUE
où ṁ′′ est le débit massique d’évaporation par unité de surface, ∆hv l’enthalpie de vaporisation du liquide, hconv,0 le coefficient de convection à la surface du liquide, ε0 l’émissivité de cette surface et q
ext le flux radiatif incident provenant de la phase gazeuse. La température du gaz T est celle calculée dans le volume de contrôle situé juste au-dessus de la surface du liquide. - Conditions aux limites sur la face inférieure du bac, considérée comme adiabatique (y = L) :
∂Tl | =0 ∂y y=L (30) + − (L) = εL σTl (L)4 + (1 − εL )ql,rad ql,rad (L)
(31) où εL est l’émissivité du fond du bac en acier. Le taux d’évaporation d’un liquide dépend de sa température et de la fraction volumique de la vapeur combustible à la surface du liquide. Cette dernière est évaluée à l’aide de la relation de Clausius-Clapeyron en fonction de la température de surface du liquide Tl (0) et de sa température d’ébullition Tbl : Xf,l = exp [− ∆hv Mf 1 1 ( − )] R Tl (0) Tbl (32) L’équation (32) résulte en fait de l’intégration de l’équation de Clausius-Clapeyron en supposant que la chaleur latente de vaporisation est indépendante de la température et que la vapeur combustible se comporte comme un gaz parfait. Le taux d’évaporation du combustible liquide à un instant donné est régi par la loi de diffusion de Stefan. Si, de plus, on néglige la condensation du combustible (ṁ′′ < 0), ce taux s’écrit : 0 si Xf,l ≤ Xf,g Xf,g − 1 ṁ′′ = { pMf hm ln ( ) si Xf,l > Xf,g RT Xf,l − 1 (33) où le coefficient de transfert de masse est défini par : hm = ShDgl L
Page 112 sur 156 (34) SIMULATION NUMERIQUE
avec : - Mf : masse molaire de la vapeur de combustible ; - p et T: pression et température du gaz dans le volume de contrôle situé juste audessus de la surface du liquide ; - Xf,g : fraction volumique de vapeur combustible dans le volume de contrôle situé juste au-dessus de la surface du liquide ; - Dgl : coefficient de diffusion binaire air/vapeur combustible ; - L : longueur caractéristique de la nappe liquide, prise ici égale à son diamètre D ; - Sh : nombre de Sherwood. Le nombre de Sherwood est donné par la corrélation d’Incropera et De Witt (1996) pour un écoulement turbulent : 4/5 (35) Sh = 0,037Sc 1/3 ReD où Sc est le nombre de Schmidt, pris ici égal à 0,6, et Re est le nombre de Reynolds basé sur le diamètre de la nappe liquide. En supposant que la couche limite au-dessus de la nappe liquide est pleinement turbulente, le nombre de Reynolds est au moins égal au nombre de Reynolds critique pour un écoulement turbulent sur une plaque plane, soit 5×105 : ReD = max (5 × 105, ρ‖u‖D ) μ (36) Les propriétés thermiques et chimiques de l’hydrocarbure utilisés dans les simulations, en l’occurrence l’heptane, sont données dans le Tableau 7. Elles correspondent, pour la plupart, à celles utilisées par Sikanen et Hostikka (2016). L’émissivité du fond du bac est prise égale à 1.
Tableau 7 : Données physiques et thermiques de l’heptane. Mf Hydrocarbure Heptane (C7 H16) ( ρ cp λ ∆hv kJ J W kg kg ) ( ) ( ) ) ( 3) ( kg kg. K m. K m mol 0,100 675* 2240 0,14 317 *mesurée **ASHRAE Handbook (2009) ***supposée
Page 113 sur 156
T
bl
(K) κl Dgl 1 ( ) m mm2 ( ) s ε0 6,54** 1*** 371,65 187,5
SIMULATION NUMERIQUE Résolution numérique
Le maillage utilisé est non uniforme et d’autant plus fin que l’on s’approche de la surface du liquide. Les équations (24) et (25), auxquelles sont associées les conditions aux limites (29) et (31), sont résolues à l’aide d’un schéma unilatéral du premier ordre. Leur discrétisation donne :
+ (j) ql,rad − (j) ql,rad + (j − 1) + 2κl Δy − σTl4 (j) ql,rad = 1 + 2κl Δy − − (j + 1) + 2κl Δy + σTl4 (j) ql,rad = 1 + 2κl Δy + j = 2 à jmax (37) j = jmax − 1 à 1 (38) où Δy − = y(j) − y(j − 1) et Δy + = y(j + 1) − y(j).
L’équation de la chaleur (26), à laquelle sont associées les conditions aux limites (28) et (30), est quant à elle résolue par la méthode des volumes finis en utilisant un schéma temporel d’ordre un et un schéma centré d’ordre deux dans l’espace. Le couplage fort entre ces équations nécessite une procédure itérative, la solution étant obtenue lorsque le critère de convergence entre les itérations successives internes ν et ν + 1 donné par : |Tlν+1 (y) − Tlν (y)| ≤ tol Tlν (y) est satisfait dans chacun des volumes de contrôle. La tolérance retenue est de 10-6. Remarques
➢ Lorsque la température de surface du liquide est très proche de la température d’ébullition, l’équation (33) peut conduire à des valeurs du débit d’évaporation très élevées et non réalistes. Pour pallier ce problème, Van Hees et al. (2012) propose de limiter la fraction volumique à 0,9999, de sorte que : Xf,l = min {0,9999, exp [− ∆hv Mf 1 1 ( − )]} R Tl (0) Tbl
Page 114 sur 156 (39) SIMULATION NUMERIQUE
En inversant cette équation, on peut remarquer que cela revient à limiter la température de surface du liquide à 371,646 K, ce qui permet de se rapprocher de la température d’ébullition, 371,65 K, tout en conservant des valeurs réalistes du débit d’évaporation. Une alternative consiste à limiter la température de surface à Tbl − ε. Dans la mesure où elle conduit à des solutions plus stables, notamment pour des valeurs élevées de Xf,g, nous avons retenu cette alternative avec ε =0,01 K, donnant une valeur maximale Xf,l =0,9997. ➢ Comme le montre la figure ci-dessous (Figure 61), la température n’est pas maximale à la surface du liquide, mais juste en-dessous. Cela est dû aux pertes thermiques induites par l’évaporation du liquide en surface. Ce point chaud a été également observé par Sikanen et Hostikka (2016). Ils ont proposé de corriger cet effet en prenant en compte la convection dans le liquide au travers d’une conductivité thermique effective. Les expériences numériques réalisées en utilisant une conductivité effective λl,eff = 8,4λl ont conduit à une large surestimation du taux d’évaporation. C’est la raison pour laquelle cette procédure n’a pas été retenue lors des
simulations. 380 Tbl=371.65K Température (K) 360 340 320 300 0 0.01 0.02 0.03 0.04 y (m)
Figure 61 : Profils de température du combustible liquide en fonction de la hauteur de 0 à 1800 s par intervalles de 100 s. Le flux externe d’exposition est de 3 kW/m2, la température du gaz de 700 K et le coefficient de convection de 10 W/m2/K. La fraction volumique de vapeur combustible est de 0,3.
Page 115 sur 156 SIMU
LATION NUMERIQUE 6.2.2 Implémentation du Modèle d’évaporation dans le code SAFIR
Le modèle d’évaporation présenté précédemment permet d’évaluer la température Tl (0), ainsi que le débit massique surfacique ṁ′′ des vapeurs de combustible à la surface du liquide. On peut alors en déduire la vitesse d’éjection de ces vapeurs en un point P quelconque de la surface de la nappe liquide : uy (P, t) = ṁ′′(P, t) ρ(P, t) (40) où ρ est la masse volumique des vapeurs combustibles, calculée à partir de l’équation d’état : ρ(P, t) = pth (t)Mf /RTl (0)(P, t) L’énergie cinétique et son taux de dissipation sont calculés en imposant une intensité de turbulence It et en utilisant une longueur caractéristique de la nappe de combustible Lnappe (i.e. le diamètre pour un bac circulaire ou le côté pour un bac carré) :
3 2 k(P, t) = [uy (P, t)It ] 2 3 k(P, t)2 ε(P, t) = Cμ 0,07Lnappe 3 4 (41)
(42) On peut noter que, compte tenu de la faible quantité de mouvement générée par l’évaporation du liquide, avec des vitesses de l’ordre de quelques mm/s, la production de turbulence reste ible, avec des valeurs de k et ε comparables, voire inférieures, aux valeurs initiales imposées (typiquement, k0 = 10−6 m2 /s 2, ε0 = 10−9 m2 /s 3). Le fait d’imposer une condition de vitesse à la surface du liquide impose une condition de Neumann sur la fluctuation de pression. Les vapeurs de combustible sont supposées exemptes de suies.
6.3 Données d’entrée et paramètres numériques
Le code SAFIR a été utilisé pour simuler le comportement du feu observé lors de l’essai 26 (Tableau 3, p53) pour lequel les parois latérales sont constitués d’acier
Page 116 sur 156 SIMULATION NUMERIQUE
recouvert d’une plaque de silicate de calcium. On s’affranchit ainsi de la complexité, essentiellement radiative, liée à la présence d’une paroi en verre. L’étude numérique qui suit a consisté à réaliser des simulations en imposant le débit d’évaporation, puis en le calculant à l’aide du modèle décrit dans le §6.2. Les fonctionnalités particulières retenues pour ces simulations sont les suivantes (voir Tableau 5) : • La combustion est une réaction chimique à une étape, incluant la limite inférieure d’inflammabilité de Hu et al. (2007). L’efficacité de combustion a été fixée à 0,97 ; • La phase gazeuse est constituée de cinq espèces chimiques ( C7 H16, O2, CO2, H2 O, N2 ) ; • La turbulence est décrite par le modèle de turbulence k − ε standard, incluant le modèle SGDH (Simple Gradient Diffusion Hypothesis) pour le calcul des termes de production/destruction de turbulence due à la gravité ; • La contribution des espèces gazeuses au coefficient d’absorption du gaz est déduite de la relation de Magnussen et Hjertager (1977) ; • La pression thermodynamique est calculée à partir de l’équation de bilan de masse étendue au volume du local ; • Les parois du local sont conductrices de la chaleur. • L’admission est traitée comme une ouverture imposée de type ventilation. L’écoulement y est alors conditionné par la pression différentielle entre l’intérieur et l’extérieur du local, en utilisant un coefficient de perte de charge dans la conduite, déterminé à froid (voir remarque ci-dessous). Le débit d’extraction est quant à lui imposé à celui mesuré expérimentalement (condition d’injection volumique par une ouverture imposée). • La corrélation empirique d’Holman (1990) est utilisée pour calculer le coefficient de transfert de chaleur par convection aux parois du local et sur les faces des régions bloquées (bouches de ventilation, bac de combustible et son support).
Page 117 sur 156 SIMULATION NUMERIQUE
Les données d’entrée et les paramètres numériques utilisés dans les simulations sont résumés dans le Tableau 8. On notera que le bac de section circulaire a été remplacé par un bac de section carrée de même aire.
Page 118 sur 156 SIMULATION NUMERIQUE
Tableau 8 : Données d'entrée et paramètres numériques utilisés dans les simulations. Dispositif
NYX Essai 26 Dimensions de l’enceinte (m×m×m) 1,25×1,5×1 Dimensions des bouches de ventilation (m×m) 0,06×0,12 Coordonnées du centre des bouches Admission : (-0,64 ;0,86 ;0) de ventilation (m) Extraction : (0,64 ;0,86 ;0) Epaisseur des éléments de paroi et des bouches de ventilation 0,002 en acier doux (m) Epaisseur des éléments de paroi en 0,045 silicate de calcium (m) Foyer Dimensions du bac (m×m×m) 0,16×0,16×0,055 Epaisseur des parois du bac (m) 0,002 Hauteur de la nappe d’heptane (m) 0,043 Propriétés du silicate de calcium Masse volumique (kg/m3) 29001 Conductivité thermique (W/m/K) 0,221 Chaleur spécifique (J/kg/K) 9701 Emissivité 12 Propriétés de l’acier doux Masse volumique (kg/m3) 78173 Conductivité thermique (W/m/K) 51,93 Chaleur spécifique (J/kg/K) 4463 Emissivité 12 Propriétés de l’acier inoxydable AISI 304 (bac de combustible) Masse volumique (kg/m3) 79003 Conductivité thermique (W/m/K) 14,93 Chaleur spécifique (J/kg/K) 4773 Emissivité 12 Propriétés de l’heptane : voir Tableau 7 Conditions initiales Température (K) 301,15 Pression (Pa) 101300 Energie cinétique turbulente ou ECT (m2/s2) 10-6 2 3 Taux de dissipation de l’ECT (m /s ) 10-9 Paramètres numériques Pas de temps (s) 0,025 Nombre maximal d’itérations internes 5 Maillage cartésien de l’enceinte 58×48×50 (vol. en x × vol. en y × vol.en z) Maillage pour le calcul du rayonnement 8×20 (azimutal×équatorial) Coefficient de perte de charge à l’admission 0,18 Positions
capteurs : voir §3.2.3 1Données constructeur. le matériau étant recouvert d’une fine couche de suie. 3Incropera et De Witt (1996). 2Supposée, Page 119 sur 156 SIMULATION NUMERIQUE
La Figure 62 montre le maillage cartésien non uniforme utilisé. Un raffinement a été appliqué dans les trois directions afin d’augmenter la densité du maillage au voisinage de la surface de la nappe combustible, des parois et des bouches de ventilation. Une étude de sensibilité de la solution au maillage a été préalablement réalisée. Le meilleur compromis entre le temps de calcul et la qualité de la solution a été obtenu avec un maillage constitué de 58×48×50 volumes élémentaires, le centre de la maille située au-dessus de la surface du combustible liquide étant à moins de 1 mm de cette surface. Un pas de temps de 0,025 s a été retenu et un nombre maximal de 5 itérations internes a été nécessaire pour satisfaire la conservation de la masse à chaque étape de temps. Le temps de calcul séquentiel est d’environ 800 s pour une seconde de temps réel. Remarque : le coefficient de perte de charge a été calculé à froid à partir de la relation suivante : c
d
= Qad
m
ρ0 TrVNYX ρ0 = √ √ 3600S 2|∆p| 3600S 2|∆p|
où ∆p est la différence de pression entre l’intérieur et l’extérieur du local, ρ0 la masse volumique de l’air admis, VNYX le volume de l’enceinte(VNYX =1,875 m3) et S l’aire de la section de la bouche d’admission (S =0,0036 m2). Pour l’essai 26, en moyenne, Tr =12,5 h-1, ρ0 =1,167 kg/m3 et ∆p =-59,2 Pa, ce qui conduit à valeur de cd de 0,18. Cet essai a été simulé à l’aide du code SAFIR et ont conduit, en fixant à 0,18 la valeur du cd, à des valeurs moyennes du débit moyen d’admission et de la pression différentielle en très bon accord avec les données expérimentales. Page 120 sur 156 SIMULATION NUMERIQUE
Figure 62 : Projections du maillage du domaine de calcul dans le plan vertical central (x, y, z = 0) et sur le plancher (x, y = 0, z).
Page 121 sur 156 SIMULATION NUMER
IQUE 6.4 Simulation de l’essai 26 à débit prescrit
La simulation à débit prescrit consiste à imposer au cours du temps le débit d’évaporation de combustible déduit de la perte de masse mesurée expérimentalement (Figure 63). Les évolutions temporelles prédites et mesurées des différentes grandeurs physiques sont comparées ci-dessous (Figure 64 à Figure 69). Sur la Figure 64, on remarque que, sur les 100 premières secondes, le modèle surestime la pression différentielle entre l’intérieur et l’extérieur de l’enceinte et, par conséquent, sous-estime le débit volumique d’admission d’air. Cette différence peut s’expliquer par une combustion calculée plus active comme en témoignent la déplétion d’oxygène et la production de dioxyde de carbone (Figure 67), mais aussi les températures de gaz dans l’enceinte (Figure 69) durant cette période. L’efficacité de combustion, fixée à une valeur constante de 0,97 dès l’inflammation, est sans doute trop élevée dans les premiers instants. Au-delà de 200 s, le modèle reproduit de façon satisfaisante les oscillations BF sur la pression différentielle et le débit d’admission, avec des amplitudes et des fréquences comparables. En effectuant une transformée de Fourier rapide de l’évolution temporelle de la pression, on observe une fréquence dominante de 22,5 mHz, très proche de celle obtenue expérimentalement, de 23,9 mHz (Figure 65). La Figure 66 permet de comparer l’évolution temporelle du débit d’évaporation mesuré avec celle du taux de consommation des vapeurs combustibles dans tout le local (i.e. − ∫V NYX ω̇ C7 H16 dV ). Ces deux évolutions suivent exactement le même comportement ce qui tend à montrer que le combustible qui s’évapore brûle complétement dans le local. Au-delà des 100 premières secondes, les évolutions des fractions molaires d’oxygène et de dioxyde de carbone à l’extraction sont bien reproduites par le modèle, en particulier la phase oscillatoire BF (Figure 67). La bonne concordance des évolutions de CO2 souligne la pertinence du modèle de combustion à une étape, ce à quoi on pouvait s’attendre, compte tenu de la faible concentration de CO mesurée à l’extraction.
Page 122 sur 156 SIMULATION NUMERIQUE
La modélisation numérique permet d’accéder à des grandeurs locales difficiles, voire impossibles, à mesurer. C’est le cas des flux thermiques à la surface de la nappe de combustible qui sont le moteur de son évaporation. La Figure 68 représente les évolutions temporelles des flux thermiques moyens à la surface du foyer. On note une prédominance du rayonnement sur la convection. Le flux radiatif incident varie en moyenne, après 500 s de feu, autour de 2,3 kW/m2 alors que le flux total incident varie en moyenne autour de 3,3 kW/m2. Cette dernière peut être rapprochée de celle calculée à partir d’un simple bilan d’énergie à la surface de la nappe combustible d’aire A = 0,0256m2: Φinc = ṁ A 4 Δhv + σTbl =3,1 kW/m2, en supposant une émissivité unitaire de la surface de la nappe combustible et en prenant une valeur oyenne du débit massique d’évaporation de 0,16 g/s (Figure 63). En ce qui concerne les évolutions temporelles des températures de gaz dans le dispositif NYX (Figure 69), le modèle reproduit correctement les niveaux de température du gaz dans les coins, à l’exception du coin AvE vers lequel la flamme a tendance à se déplacer. Contrairement aux observations, les températures prédites fluctuent davantage en partie haute, ce qui suggère que le modèle ne simule pas bien le positionnement de la flamme. 0.3 0.25 MLR (g/s) 0.2 0.15 0.1 0.05
0 0
500 1000 Temps (s) 1500
2000 Figure 63 : Essai 26 : évolution temporelle du débit d’évaporation expérimental (MLR) d’heptane.
Page 123 sur 156 SIMULATION NUMERIQUE 3
Pression différentielle (Pa) 60 Débits d'admission (m /h) p 0 -100 40 -200 20 -300 Qadm -400 0 EXP. SAFIR -500 -20 0 500 1000 1500 2000 Temps (s)
Figure 64 : Essai 26 : comparaison des pressions différentielles et des débits d’admission prédits et mesurés. 1
0.8 EXP
. SAFIR E(
-) 0.6 0.4 0.2 0 0.02 0.04 0.06 0.08 0.1
Fréquence (Hz) Figure 65 : Essai 26 : comparaison des spectres d’amplitude adimensionnée par FFT des évolutions temporelles des pression prédite et mesurée entre 300 et 800 s.
Page 124 sur 156 SIMULATION NUMER
IQUE MLR/Taux de consommation (g/s) 0.3 0.25 0.2 0.15 0.1 MLR Taux de consommation moyen 0.05 0 0 500 1000 Temps (s) 1500 2000
Figure 66 : Essai 26 : comparaison du débit d’évaporation d’heptane mesuré et du taux de consommation des vapeurs combustibles calculé dans tout le local.
10 8 O2 15 6 10 4 CO2 Exp. SAFIR 5 0 0 500 1000 1500 2 2000 Fraction molaire de CO2 (%) Fraction molaire de O2 (%) 20 0 Temps
(s) Figure 67 : Essai 26 : comparaison des fractions molaires prédites et mesurées de CO2 et O2 à l’extraction.
Page 125 sur 156 SIMULATION NUMERIQUE
12 Radiatif Convectif Total Flux (kW/m2) 10 8 6 4 2 0 0 500 1000 Temps (s) 1500 2000
Figure 68 : Essai 26 : évolutions temporelles des flux thermiques moyens calculés à la surface de la nappe d’heptane. 900 z=0.15m Température (K) 800 700 600 500 400 300 0
500
1000 Temps (s)
Page 126 sur
156 1500 2000 SIMULATION NUMERIQUE 900 z=0.35m Température (K) 800 700 600 500 400 300 0 500 1000 1500 2000 1500 2000 Temps (s) 900 z=0.55m Température (K) 800 700 600 500 400 300 0 500 1000 Temps (s)
Page 127 sur 156 SIMULATION
NUMERIQUE 900 z=0.75m Température (K) 800 700 600 500 400 300 0 500 1000 1500 2000 1500 2000 Temps (s) 900 z=0.95m Température (K) 800 700 600 500 400 300 0 500 1000
Temps (s) Figure 69 : Essai 26 : comparaison des températures prédites et mesurées à différentes hauteurs dans les quatre coins du dispositif NYX. L’équilibre entre l’apport d’air dans la zone de réaction et le dégagement de vapeurs combustibles, et par conséquent le comportement oscillatoire BF du feu, sont
Page 128 sur 156 SIMULATION NUMERIQUE
fortement dépendants de
l’aéraulique induite
par le
feu et
de la configuration de
ventilation
(
dé
bit
,
orientation et position
des
bouches). Pour illustrer la complexité de l’écoulement, sur la Figure 70, nous avons superposé aux isothermes 400, 550 et 850 K deux lignes de courant issues de la bouche d’admission. Comme on peut le constater, les particules fluides qui suivent ces lignes de courant n’arrivent pas dans la zone de réaction par le chemin le plus court. Elles ne traversent la zone de réaction qu’après avoir parcouru une ou plusieurs circonvolutions autour du foyer. Le temps d’advection mis par une particule d’air pour arriver dans la zone de réaction apparaît être un paramètre important pour la caractérisation du phénomène oscillatoire. On peut penser, en s’appuyant sur les résultats du §5.5.2, concernant l’influence de la position de la bouche d’admission sur ce phénomène, que plus le temps d’advection est court, plus la fréquence des oscillations BF est élevée. Cela reste à vérifier en simulant les trajectoires et le temps de résidence de particules fluides depuis leur entrée dans l’enceinte jusqu’à la zone de réaction.
Page 129 sur 156 SIMULATION NUMERIQUE
Figure 70 : Essai 26 : isothermes 400, 550 et 850 K et exemples de lignes de courant issues de la bouche d’admission.
6.5 Simulation de l’essai 26 à débit calculé
Pour cette simulation, le débit massique d’évaporation a été calculé à partir du modèle décrit précédemment (§6.2). Les résultats prédits sont comparés aux données expérimentales sur les figures ci-dessous (Figure 71 à Figure 77). Sur la Figure 71, le débit massique total a été obtenu en intégrant le débit massique surfacique sur toute la surface du liquide. On note des similitudes suivantes avec la simulation à débit prescrit: • Sur les 100 premières secondes, la combustion prédite par le modèle est plus active que celle observée expérimentalement, en raison sans doute d’une efficacité constante de 0,97 dès l’inflammation. Elle peut s’expliquer aussi par le fait que l’on suppose, dès l’inflammation, une couche limite pleinement turbulente au-dessus de la nappe liquide, en fixant un nombre de Reynolds au moins égal à 5×105. La combustion plus active conduit à une surestimation de la pression différentielle entre l’intérieur et l’extérieur de l’enceinte et, par conséquent, à une sous-estimation du débit volumique d’admission d’air. Cela s’accompagne également d’une surestimation de la déplétion d’oxygène et de la
Page 130 sur 156 SIMULATION NUMERIQUE
production de dioxyde de carbone (Figure 75), ainsi que des températures de gaz dans l’enceinte (Figure 77) durant cette période. • Au-delà de 200-250 s, la valeur moyenne du débit d’évaporation est comparable à celle mesurée, avec cependant des amplitudes moindres. Les oscillations BF se manifestent sur son évolution ainsi que sur celles des autres grandeurs de l’écoulement, à savoir la pression différentielle et le débit d’admission (Figure 72), les fractions molaires d’oxygène et de dioxyde de carbone à l’extraction (Figure 75) et la température du gaz dans le local (Figure 77). Comme le montre la Figure 73, le spectre d’amplitude adimensionnée par FFT de l’évolution temporelle de la pression prédite (Figure 72), entre 300 et 800 s, fait apparaître une fréquence dominante à 23,9 mHz, strictement identique à celle déduite de la FFT de la pression mesurée. • Les évolutions du débit
d’évaporation
é et du taux de consommation des vapeurs combustibles dans le local révèlent, là encore, que celles-ci ont entièrement brûlé dans le local (Figure 74).
| 33,730
|
0854cbf087d2e9bd8a657192e875a07c_19
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,023
|
RM przodostopia
|
None
|
French
|
Spoken
| 7,736
| 15,230
|
e
f
g
400
F30 Vande Berg (OK).indd 400
1/06/11 14:23:55
Neuro-arthropathies du pied
Séméiologie IRM
Au stade débutant, les neuro-arthropathies sont
difficiles à reconnaître en IRM, car les lésions ne
sont pas spécifiques [11, 12, 13, 14]. L’IRM démontre généralement une importante infiltration de la
moelle osseuse de part et d’autre de l’espace articulaire (fig. 3). Cette infiltration aspécifique présente
occasionnellement un signal relativement faible
en SE T2, ce qui constitue un élément orientant
vers une neuro-arthropathie. Les phénomènes de
subluxation articulaires et de fragmentation des
surfaces articulaires sont souvent sous-estimés en
IRM. En cas de neuro-arthropathie non infectée,
il n’existe généralement pas de collection abcédée
(fig. 3) [15, 16]. La synoviale et l’espace articulaire sont tuméfiés avec d’éventuelles extensions
aux gaines téno-synoviales adjacentes lorsqu’elles
communiquent avec l’espace articulaire, de façon
physiologique ou secondairement aux destructions capsulo-ligamentaires. Les collections abcédées à distance des récessus articulaires ne sont
pas observées en cas de neuro-arthropathies non
infectée [17].
Fig. 4 : Radiographie de face de l’avant-pied
d’une jeune patiente atteinte d’un spina bifida et neuropathie. Densification et fracture
de la tête de M1. Fracture chronique de P1 du
deuxième rayon avec angulation et appositions
périostées.
a
b
c
Fig. 5 : (a) Pathologies osseuses intriquées chez une diabétique âgée de 57 ans. La radiographie initiale de l’avant-pied droit est
normale. (b) Le suivi radiologique obtenu 4 mois plus tard démontre l’apparition d’une fracture épiphysaire de la tête de M2 comportant une densification et une déformation céphalique avec apposition périostée. A la différence d’une arthropathie, il n’existe
pas de malalignement articulaire ni d’image en miroir sur la base phalangienne en regard. (c) La radiographie de l’avant-pied
gauche démontre des modifications similaires mais plus marquées de M2 et M3 avec isolement d’un fragment osseux sous-chondral suggestif d’une nécrose épiphysaire et associée à une arthrose. Absence de subluxation et de fragmentation des autres os.
401
F30 Vande Berg (OK).indd 401
1/06/11 14:23:56
Le pied
Fig. 6 : Schémas de la classification selon Sanders
Classifications
2) Stade 2 ou de coalescence
Sanders [18, 19] a établi une classification en
5 points, basée sur la localisation anatomique des
dislocations principales (fig. 6) :
I IP et MTP
18 %
II
Lisfranc
50 %
III
Chopart
20 %
IV
Cheville
10 %
V
Calcanéum postérieur
2%
1. RX : Début des processus de réparation avec
résorption osseuse et formation de cal.
2. Statut clinique : Diminution de l’œdème, de la
chaleur et de l’érythème.
3. Diagnostic différentiel : Luxation invétérée.
Eichenholz [20] a décrit trois stades radiologiques de développement du pied de Charcot :
1. RX : Consolidation osseuse associée de façon
pratiquement constante à une déformation
résiduelle.
2. Statut clinique : Pied “froid” sans épanchement,
avec déformation angulaire entraînant des
hyper-appuis.
3. Diagnostic différentiel : Séquelles de fractures
ou de luxations.
3) Stade 3 ou de consolidation
1) Stade 1 ou de fragmentation
1. RX : Inflammation aiguë avec destruction
osseuse et luxation.
2. Statut clinique : Hyperhémie, chaleur, érythème
(fig. 7), épanchements articulaires.
3. Diagnostic différentiel : Ostéomyélite ou arthrite
infectieuse aiguë.
Diagnostic différentiel
Les neuro-arthropathies du pied doivent être
différenciées des affections septiques, notamment
chez le patient diabétique. Le site de développement de la pathologie articulaire, la topographie
exacte de l’ostéolyse radiologique et l’état des tissus mous sont des éléments importants pour le
diagnostic différentiel.
En cas de pathologie septique, les structures ostéo-articulaires sont contaminées à partir d’une
lésion sous-cutanée (atteinte de contiguïté) et les
sites de prédilection des lésions cutanées sont
l’extrémité plantaire des orteils et la face dorsale
des articulations interphalangiennes proximales
Fig. 7 : Pied de Charcot, stade 1 d’Eichenholz
402
F30 Vande Berg (OK).indd 402
1/06/11 14:23:56
Neuro-arthropathies du pied
Thérapeutiques de la neuroarthropathie du sujet
diabétique
(orteil en marteau), le versant interne de la première et le versant latéral de la cinquième articulation métatarso-phalangienne, le versant plantaire
des 1re, 2e, 3e articulations métatarso-phalangiennes (affaissement de la voûte plantaire) et la face
postérieure ou latérale du talon (décubitus) [21].
A l’inverse, les neuro-arthropathies prédominent
nettement aux articulations tarso-métatarsiennes
sans toutefois être exceptionnelles à la cheville
ou aux articulations métatarso-phalangiennes.
Cette distinction est parfois théorique, puisqu’une
neuro-arthropathie tarso-métatarsienne peut se
compliquer d’une pathologie septique suite à un
vice d’appui plantaire et surinfection secondaire.
L’ostéolyse radiologique est généralement de topographie marginale en cas d’atteinte septique et
de topographie sous-chondrale en cas de neuroarthropathie. Si besoin, le scanner permet d’apprécier la topographie de la destruction osseuse
qui est focalisée en territoire de contact mécanique (destruction en miroir, os contre os) en cas de
neuro-arthropathie. La présence d’érosion dans
un territoire où l’os atteint ne peut être en contact
avec un autre os (atteinte marginale) signe une atteinte inflammatoire.
Les trois principaux objectifs du traitement sont :
1. Amener le pied au stade 3 de la guérison
osseuse avec le moins de déformation
possible, permettant ainsi l’utilisation d’un
soulier pratiquement normal ou d’un soulier
orthopédique médicalement adapté.
2. Limiter au maximum les problèmes des
tissus mous et les ulcérations, afin d’éviter le
développement d’une ostéomyélite chronique
entraînant un risque élevé d’amputation.
3. Conserver une bonne mobilité au patient
diabétique, ceci étant important pour la stabilité
du diabète et limiter l’aggravation d’une
ostéoporose et d’une atrophie musculaire,
toujours problématique chez un diabétique.
Traitement conservateur
Le traitement conservateur [6, 22] est encore la
règle, malgré les importants progrès des traitements chirurgicaux. Il comporte différents stades :
1. Repos et surélévation du pied afin de diminuer
la tuméfaction et d’exclure une ostéomyélite.
24 à 48 heures de surélévation permettent
rapidement de faire la différence avec une
ostéomyélite dont la tuméfaction persistera.
2. Plâtre de contact total (total contact cast)
(fig. 8), qui doit être changé tous les 5-7 jours,
orthèse PTB ou orthèse de maintien du pied de
Charcot (CROW : Charcot Restraining Orthotic
Walker) [23] (fig. 9).
3. Marche en charge, selon tolérance, et s’il n’y
a pas de progression de la déformation, sinon
nécessité d’une décharge prolongée.
4. Maintenir le plâtre ou l’orthèse aussi longtemps
que le patient n’a pas atteint le stade III,
cliniquement et radiologiquement. Ceci prend
habituellement entre 4 ou 6 mois, mais parfois
12 mois. Contrôle radiologique mensuel
Enfin, la présence d’abcès des tissus mous,
bien visualisés en IRM, signe l’affection septique.
D’autres éléments séméiologiques contribuent
parfois au diagnostic différentiel entre arthropathie neurologique et septique.
Il convient de noter que ce diagnostic différentiel est parfois difficile, voire impossible à réaliser
de façon non invasive. Ceci est particulièrement
le cas chez les patients diabétiques chez lesquels
ces deux affections ne sont pas exceptionnelles et
sont parfois associées. Il ne faut pas hésiter à ponctionner ces arthropathies vu le risque septique, la
possibilité de plusieurs germes (germe cutané pas
nécessairement représentatif) et l’indolence relative de ce geste chez ces patients dépourvus de
sensibilité.
403
F30 Vande Berg (OK).indd 403
1/06/11 14:23:56
Le pied
permettant de surveiller l’aggravation des
déformations osseuses parfois très rapides et la
nécessité d’une intervention chirurgicale.
5. Après consolidation, utilisation d’une orthèse
de cheville, articulée ou non, de souliers
orthopédiques adaptés, et supervision médicale
stricte.
Traitement chirurgical
Le traitement chirurgical peut être indiqué
dans le stade 1 aigu, en cas d’échec du traitement
conservateur avec, notamment, progression des
déformations ou ostéomyélite associée. Cette dernière augmente les risques de complications et
notamment d’amputation secondaire. Si possible,
et individuellement en fonction de l’état clinique,
il est préférable d’attendre les stades 2 et mieux
encore 3, pour intervenir chirurgicalement. Une
peau intacte est également une condition favorable. Néanmoins, ces divers éléments sont parfois
impossibles à obtenir dans un pied de Charcot rapidement évolutif et l’intervention doit donc être,
dans cette situation, considérée comme une opération de sauvetage avant amputation.
Fig. 8 : Botte plâtrée de contact total
Diverses techniques [24, 25, 26] ont été mises
au point, et leur choix va dépendre du type de
problème rencontré : débridement, ostectomie,
réduction ouverte et fixation interne (ORIF), fixateur externe de type Ilizarov, arthrodèses avec matériel solide de type clou intramédullaire, plaque
massive ou grosses vis.
Ostectomie
Cette résection d’une excroissance osseuse, particulièrement au niveau plantaire (fig. 10.1 à 10.3),
est généralement utilisée pour des hyperappuis
dus à des cals exubérants ou à une désaxation
osseuse [27]. Elle n’a de sens qu’après consolidation du pied de Charcot. Elle est habituellement
Fig. 9 : Orthèse de type CROW
404
F30 Vande Berg (OK).indd 404
1/06/11 14:23:57
Neuro-arthropathies du pied
2
1
Fig. 10 :
1) Hyper-appui plantaire sous le cuboïde, menaçant la
peau ; stade 3 de pied de Charcot
2) Radiographie de profil : cal proéminent plantaire sous
le Lisfranc interne
3) Même pied que la figure 8.2 : ostectomie plantaire
3
faite par une incision médiale ou latérale, avec
dissection soigneuse des tissus mous jusqu’à l’os
en une couche. L’os proéminent est réséqué avec
des ostéotomes et la surface aplanie avec un rongeur. Nécessité d’un drainage de type redon. Pas
de plâtre, mais charge partielle recommandée. La
cicatrice peut présenter des déhiscences ou des retards de fermeture fréquents.
et doit être pratiquée au moyen de matériel massif
de type vis 8.0 (fig. 11.1 à 11.4), plaque de reconstruction ou lame-plaque. Une décharge prolongée
doit être maintenue, soit au moyen de deux cannes, soit d’un plâtre à appui patellaire (PTB). Le
temps de consolidation est généralement doublé,
voire triplé, par rapport à une fracture-luxation
“normale”.
Réduction ouverte et fixation interne
Fixateur externe
Dans des situations où la déformation progresse
et menace la peau avec risque septique et d’amputation, la réduction ouverte doit être considérée
avant de discuter une amputation. La fixation va
dépendre du type de lésion et de sa localisation,
L’utilisation d’un fixateur externe [28, 29], particulièrement de type Ilizarov (fig. 12.1 à 12.4),
peut être une alternative chez des patients sélectionnés ou en cas d’infection ostéo-articulaire. Il
est généralement associé à une réduction ouverte,
405
F30 Vande Berg (OK).indd 405
1/06/11 14:23:57
Le pied
1
2
4
3
Fig. 11
1) Pied de Charcot instable, stade 2. Radiographie préopératoire de profil
2) Pied de Charcot instable, stade 2. Radiographie préopératoire de face
3) Idem après réduction et ostéosynthèse. Radiographie postopératoire de profil
4) Idem après réduction et ostéosynthèse. Radiographie postopératoire de face
406
F30 Vande Berg (OK).indd 406
1/06/11 14:23:57
Neuro-arthropathies du pied
2
3
1
Fig. 12
1) Pied de Charcot instable, stade 2, type II. Radiographie préopératoire de face
2) Pied de Charcot instable, stade 2, type II. Radiographie préopératoire de profil
3) Image intra-opératoire, pose d’un fixateur externe
selon Ilizarov, après réduction ouverte
4) Idem, vue plantaire avec luxations réduites et pied
plantigrade
4
407
F30 Vande Berg (OK).indd 407
1/06/11 14:23:58
Le pied
spongieuse extensive. Le traitement postopératoire comporte l’utilisation d’un plâtre en décharge
ou d’un plâtre PTB pendant une période également prolongée. Après consolidation, une orthèse
de cheville peut être nécessaire, orthèse devenant
indispensable en cas de pseudarthrose fibreuse. Le
taux de pseudarthroses est élevé, mais elles sont
souvent très bien tolérées, et l’utilisation d’une orthèse stabilisatrice est facilitée par la bonne orientation articulaire.
car la réduction fermée est très souvent impossible. L’avantage d’un tel fixateur est de permettre
rapidement un appui partiel, voire total, en fonction des possibilités du patient, et donc souvent à
même de maintenir une mobilité accrue du patient
par rapport à la fixation interne. Le désavantage
est de maintenir une fixation externe pendant de
nombreux mois, le plus souvent 6 à 9 mois.
Arthrodèse
Complications de la chirurgie
Dans les stades 3 et en cas de déformation sévère impossible à appareiller, ou de douleurs articulaires persistantes après consolidation [30], ou
plus rarement dans les stades précoces [31], une
arthrodèse de plusieurs articulations est souvent
requise. Elle doit être considérée également comme une procédure de sauvetage avant une amputation, mais les risques de complication sont moins
élevés qu’en cas d’intervention dans un stade aigu.
La fixation interne doit être également très solide,
et l’utilisation de lame-plaque massive (fig. 13.1
à 13.3) ou de clous [32, 33] (fig. 14.1 à 14.4) est
recommandée, ainsi que celle d’une autogreffe
Les infections postopératives ne sont pas rares
et peuvent mener à l’amputation. Le taux augmente avec les comorbidités, particulièrement le
tabagisme associé et la présence d’une ostéomyélite aiguë [34].
Les pseudarthroses ou retards de consolidation
avec rupture des implants sont fréquentes, mais
souvent bien tolérées, permettant l’utilisation
d’une orthèse de cheville ou d’une chaussure orthopédique [35, 36].
1
2
3
Fig. 13
1) Pied de Charcot, stade 3, radiographie de profil.
Douleurs persistantes
2) Lame-plaque 3.5, titane
3) Même pied, après arthrodèse tibio-talo-calcanéenne. Radiographie post-opératoire de profil
408
F30 Vande Berg (OK).indd 408
1/06/11 14:23:58
Neuro-arthropathies du pied
Tableau 2 : Arthropathies mécaniques*
inhabituellement destructrices
Neuro-arthropathies
Nécrose épiphysaire
Arthrose rapidement évolutive
Arthropathies micro-cristallines (chondrocalcinose,
goutte)
* caractérisées par des phénomènes de destruction “en
miroir” et l’absence d’érosion marginale.
1
3
Fig. 14
1) Pseudarthrose d’une arthrodèse tibio-talienne dans un pied de
Charcot, type IV. Radiographie préopératoire de face
2) Image intra-opératoire : implantation d’un clou intra-médullaire calcanéo-tibial
3) Arthrodèse tibio-talo-calcanéenne par clou verrouillé. Radiographie de face
2
Tableau 3 : Diagnostic différentiel entre arthropathie neurologique et septique.
Arthropathie neurologique
Arthropathie septique
Destructions osseuses
Sous-chondrales
Marginales et sous-chondrales
Infiltration médullaire
Hyposignal T2
Hyposignal T1 marqué
Hypersignal ou signal intermédiaire T2
Subluxation
Fréquente
Rare
Abcès à distance de l’espace articulaire
Non
Oui
Infiltration sous-cutanée
Hypovascularisée
Hypervascularisée
409
F30 Vande Berg (OK).indd 409
1/06/11 14:23:59
Le pied
Références
[1] GAZIS A, POUND N, MACFARLANE R, TREECE K, GAME
F, JEFFCOATE W. Mortality in patients with diabetic neuropathic
osteoarthropathy (Charcot foot). Diabet Med, 2004, 21, 1243-6.
[18] SANDERS LJ, MRDJENCOVICH D. Anatomical patterns
of bone and joint destruction in neuropathic diabetics. Diabetes,
1991, 40 (suppl 1), 529.
[2] KELLY M. William Musgrave’s De Arthritide Symptomatica
(1703): his description of neuropathic arthritis. Bull Hist Med,
1963, 37, 372-6.
[19] SANDERS LJ, FRYKBERG RG. Diabetic neuropathic osteoarthropathy : The Charcot foot. In: The High Risk Foot in
Diabetes Mellitus, Frykberg RG (ed), Churchill Livingstone, New
York, 1991.
[3] CHARCOT JM. Sur quelques arthropathies qui paraissent dépendre d’une lésion du cerveau ou de la moelle épinière. Arch De
Phys Norma et Path, 1868, 1, 161-71.
[20] HENHOLZ SN. Charcot Joints. Charles C. Thomas, Publisher, Springfield, Il, USA, 1966.
[21] Milgram JW. Osteomyelitis in the foot and ankle associated with diabetus mellitus. Clin Orthop rel research 1993 ; 296,
50-7.
[4] ARMSTRONG DG, LAVERY LA. Acute Charcot’s Arthropathy of the Foot and Ankle. Phys Ther, 1998, 78, 74-80.
[5] Guyton GP, Saltzman CL. The diabetic foot. J Bone Joint
Surg Am 83-A, 2001 ; 1084-96.
[22] SALTZMAN CL, HAGY ML, ZIMMERMAN B, ESTIN M,
COOPER R. How effective is intensive nonoperative initial treatment of patients with diabetes and Charcot arthropathy of the
feet? Clin Orthop Relat Res, 2005, 435, 85-90.
[6] ARMSTRONG DG, TODD EF, LAVERY LA, HERKLESS LB,
BUSHMAN TR. The Natural History of Acute Charcot’s Arthropathy in a Diabetic Foot Specialty Clinic. Diabetic Medicine,
1997, 14, 357-63.
[23] RGAN JM, BIEHL WC 3RD, WAGNER FW JR. Management
of neuropathic arthropathy with the Charcot Restraint Orthotic
Walker. Clin Orthop Relat Res, 1993, 296, 58-63.
[7] VALK GD, SONNAVILLE JU, VAN HOUTUM WH. The assessment of diabetic polyneuropathy in daily clinical practice:
reproducibility and validity of Semmes-Weinstein monofilaments
examination and clinical neurological examination. Muscle Nerve, 1997, 20, 116-8.
[24] JOHNSON JE. Surgical reconstruction of the diabetic Charcot foot and ankle. Foot Ankle Clin, 1997, 2, 37-55.
[25] RESCH S. Corrective surgery in diabetic foot deformity. Diabetes Metab Res Rev, 2004, 20, 34-6.
[8] MUELLER MJ. Identifying patients with diabetes mellitus
who are at risk for lower-extremity complications: use of Semmes-Weinstein monofilaments. Phys Ther, 1996, 76, 68-71.
[26] GARAPATI R, WEINFELD SB. Complex reconstruction of
the diabetic foot and ankle. Am J Surg, 2004, 187, 81S-86S.
[9] ARMSTRONG DG, LAVERY LA, LISWOOD PL. Infrared dermal thermometry for the high-risk diabetic foot. Phys Ther, 1997,
77, 169-77.
[27] SELLA EJ, BARRETTE C. Staging of Charcot neuroarthropathy along the medial column of the foot in the diabetic patient.
J Foot Ankle Surg, 1999, 38, 34-40.
[10] Gold RH, Tong DJ, Crim JR, Seeger LL. Imaging the
diabetic foot. Skeletal Radiol 1995; 24(8): 563-71.
[28] JOLLY GP, ZGONIS T, POLYZOIS V. External fixation in
the management of Charcot neuroarthropathy. Clin Podiatr Med
Surg, 2003, 20, 741-56.
[11] Ledermann HP, Morrison WB. Differential diagnosis
of pedal osteomyelitis and diabetic neuroarthropathy: MR Imaging. Semin Musculoskelet Radiol. 2005;9: 272-83.
[29] COOPER PS. Application of external fixators for management of Charcot deformities of the foot and ankle. Foot Ankle
Clin, 2002; 7, 207-54.
[12] Chatha DS, Cunningham PM, Schweitzer ME. MR
imaging of the diabetic foot: diagnostic challenges. Radiol Clin
North Am. 2005 Jul;43(4): 747-59.
[30] STONE NC, DANIELS TR. Midfoot and hindfoot arthrodeses
in diabetic Charcot arthropathy. Can J Surg. 2000, 43, 449-55.
[31] SIMON SR, TEJWANI SG, WILSON DL, SANTNER TJ,
DENNISTON NL. Arthrodesis as an early alternative to nonoperative management of charcot arthropathy of the diabetic foot. J
Bone Joint Surg Am, 2000, 82A, 939-50.
[13] Höpfner S, Krolak C, Kessler S, Tiling R, Brinkbäumer K, Hahn K, Dresel S. Preoperative imaging of
Charcot neuroarthropathy in diabetic patients: comparison of
ring PET, hybrid PET, and magnetic resonance imaging. Foot Ankle Int. 2004 Dec; 25(12): 890-5.
[32] JANI MM, RICCI WM, BORRELLI J JR, BARRETT SE,
JOHNSON JE. A protocol for treatment of unstable ankle fractures using transarticular fixation in patients with diabetes mellitus and loss of protective sensibility. Foot Ankle Int, 2003, 24,
838-44.
[14] Morrison WB, Ledermann HP, Schweitzer ME.
MR imaging of the diabetic foot. Magn Reson Imaging Clin N
Am 2001; 9(3): 603-13.
[15] Ledermann HP, Schweitzer ME, Morrison WB.
Nonenhancing tissue on MR imaging of pedal infection: characterization of necrotic tissue and associated limitations for diagnosis of osteomyelitis and abscess. AJR Am J Roentgenol 2002;
178(1): 215-22.
[33] PINZUR M, FREELAND R, JUKNELIS D. Ankle arthrodesis with a retrograde femoral nail for Charcot ankle arthropathy.
Foot Ankle Int, 2005, 26, 545-9.
[34] GIURATO L, UCCIOLI L. The diabetic foot: Charcot joint
and osteomyelitis. Nucl Med Commun, 2006, 27, 745-9.
[16] Morrison WB, Schweitzer ME, Batte WG, Radack
DP, Russel KM. Osteomyelitis of the foot: relative importance
of primary and secondary MR imaging signs. Radiology 1998;
207(3): 625-32.
[35] SCHON LC, EASLEY ME, WEINFELD SB. Charcot neuroarthropathy of the foot and ankle. Clin Orthop Relat Res, 1998,
349, 116-31.
[17] Crerand S, Dolan M, Laing P, Bird M, Smith ML,
Klenerman L. Diagnosis of osteomyelitis in neuropathic foot
ulcers. J Bone Joint Surg Br 1996; 78(1): 51-55.
[36] EARLY JS, HANSEN ST. Surgical reconstruction of the diabetic foot: a salvage approach for midfoot collapse. Foot Ankle
Int, 1996, 17, 325-30.
410
F30 Vande Berg (OK).indd 410
1/06/11 14:23:59
Lésions traumatiques spécifiques
de la cheville et du pied chez l’enfant
A. Moraux, F. Dubos, E. Nectoux, X. Demondion, N. Boutry, A. Cotten
de l’articulation talocrurale. Dans une étude de
Petit et al. [1], ce type de traumatisme représentait 5,5 % du motif de consultation aux urgences
pédiatriques.
L’examen clinique étant souvent difficile et peu
contributif chez l’enfant surtout avant l’âge de
5-6 ans, les lésions traumatiques du pied et de la
cheville sont cliniquement difficilement dissociables.
Il a donc été choisi de traiter de manière globale la
traumatologie du pied et de la cheville de l’enfant.
Malgré cette fréquence, la prise en charge radiologique de ces traumatismes reste mal codifiée.
Depuis peu, plusieurs études et méta-analyses
recommandent l’application des règles d’Ottawa
aux enfants au-dessus de 5 ans afin de diminuer
le nombre de radiographies réalisées [2-5]. Avant
5 ans, les études sont peu nombreuses, avec des
effectifs insuffisants pour pouvoir en tirer des
conclusions satisfaisantes. De plus, chez le petit
enfant, l’anamnèse et l’examen clinique ne sont
pas assez fiables et le traumatisme initial est fréquemment méconnu, posant alors la question
d’une boiterie de l’enfant.
Les lésions traumatiques de la cheville et du pied
représentent un problème quotidien et un véritable
défi pour les radiologues comme pour les pédiatres ou orthopédistes pédiatriques. L’enfant n’est
pas à considérer comme un adulte en miniature. Il
présente une fragilité osseuse spécifique qui évoluera en fonction de l’âge (fractures spécifiques au
petit enfant “préscolaire” jusqu’à environ 4 ans,
fractures du plus grand enfant intéressant essentiellement les cartilages de croissance). Il peut
aussi présenter des lésions ligamentaires. Cellesci, identifiées depuis peu, sont mal connues.
Particularités mécaniques
L’échographie est conduite à occuper une place
de choix dans la prise en charge des lésions traumatiques de la cheville et du pied chez l’enfant en
complément des radiographies standard.
Particularités osseuses
Aux extrémités du tibia et de la fibula
Aux extrémités du tibia et de la fibula, le cartilage de croissance représente la zone de faiblesse.
Les fractures du cartilage de croissance sont classées selon la classification de Salter et Harris [6]
(fig. 1) à l’exception des fractures triplanes et de
Tillaux juvéniles.
épidémiologie
Les traumatismes de cheville et du pied constituent l’un des principaux motifs de consultation
aux urgences. Le développement de la pratique du
sport a eu comme conséquence une augmentation
de l’incidence de ces lésions chez l’enfant depuis
l’entorse banale jusqu’aux fractures complexes
Cette classification permet de typer et grader rapidement la lésion :
411
G31 Moraux (OK).indd 411
3/06/11 12:39:36
Le pied
Fig. 1 : Classification de Salter et Harris.
Toutes les fractures épiphysaires peuvent se
compliquer, le risque majeur étant la fermeture
prématurée du cartilage de croissance (épiphysiodèse) focale ou complète. Schématiquement, plus
le type de fracture est élevé, plus ce risque est important. Les types I et II relèvent essentiellement
d’un traitement orthopédique. Les atteintes épiphysaires (types III et IV) doivent bénéficier d’une
réduction soigneuse et éventuellement d’une ostéosynthèse secondaire en cas de persistance d’un
diastasis ou d’une instabilité du fragment.
• en fonction de l’atteinte épiphysaire-articu
laire (Salter III et IV), qui est comme chez
l’adulte un facteur de gravité en raison de la
moindre stabilité de ces lésions et des risques
d’incongruence articulaire séquellaire. De plus,
dans le type IV, les versants métaphysaires
et épiphysaires du cartilage de croissance
peuvent également être mis en contact avec le
risque d’épiphysiodèse focale (barre osseuse
focale) ;
• en fonction de l’atteinte des couches du
cartilage de croissance. La couche germinative
contenant les précurseurs cartilagineux siège
sur le versant épiphysaire. Cette dernière
est essentiellement lésée dans les fractures
de types III et IV, pouvant compromettre le
potentiel de croissance du cartilage en zone
de fracture.
Aux régions métaphysodiaphysaires et
aux os du tarse
Le périoste de l’enfant est plus épais et plus
résistant que le périoste de l’adulte. L’os est également plus poreux que chez l’adulte, avec une
capacité plastique et élastique lui permettant de
se déformer et de s’impacter. De plus, les os du
tarse sont entourés par du cartilage de croissance
Le type V a été remis en cause, n’ayant jamais
pu être diagnostiqué directement ou reproduit par
des modèles expérimentaux [7].
412
G31 Moraux (OK).indd 412
3/06/11 12:39:37
Lésions traumatiques spécifiques de la cheville et du pied chez l’enfant
l’adolescent, les lésions ligamentaires sont plus
fréquentes en raison de la perte de l’hyperlaxité
ligamentaire [8, 9].
qui absorbe en partie les traumatismes. Ces particularités expliquent certains types de fractures
spécifiques à l’enfant, source parfois d’erreurs diagnostiques :
• les fractures en “bois vert”, résultant d’un
mécanisme de compression-distraction, avec
rupture d’une seule corticale ;
• les fractures en “cheveu”, secondaires à un
mécanisme de torsion. Ces fractures sont souspériostées, avec un périoste intègre. Le trait de
fracture spiroïde très fin peut être difficile à
visualiser sur les radiographies ;
• les fractures en “motte de beurre”, en général
proches de la métaphyse en raison de la finesse
des corticales, secondaires à un mécanisme de
compression ;
• les fractures plastiques, secondaires à un
mécanisme de torsion avec multiples microfractures responsables d’une incurvation
anormale de l’os. Leur diagnostic est difficile
en raison de l’absence de solution de continuité
corticale ou trabéculaire.
Stratégie diagnostique
La première étape reste un examen clinique minutieux. L’anamnèse est souvent difficile et le mécanisme lésionnel peut rester mystérieux même
lorsque l’événement traumatique est identifié et
rapporté par l’enfant.
Radiographies
Les radiographies restent la première étape du
bilan morphologique et comportent au minimum
3 clichés (face en rotation interne, profil et pied
déroulé).
Il faut :
• prêter une attention particulière à l’analyse
des parties molles. Les épanchements et
l’infiltration des tissus mous peuvent être
les seuls points d’appel, notamment pour les
fractures des cartilages de croissance non
déplacées ;
• toujours suspecter une fracture du cartilage
de croissance ou de l’épiphyse tibiale distale
en cas de fracture de la fibula distale ;
• toujours bien étudier l’épiphyse tibiale distale
et la syndesmose tibio-fibulaire distale sur la
face en rotation interne chez l’adolescent en
période de fusion du cartilage de croissance, à
la recherche d’une fracture triplane.
Particularités ligamentaires
Les capacités de résistance des structures ligamentaires se modifient avec la croissance, l’hyperlaxité observée durant l’enfance diminuant
avec le temps.
Distribution des lésions
Le type de lésion dépend du mécanisme et de
l’âge de l’enfant, le cartilage de croissance étant
de moins en moins vulnérable avec la croissance.
Chez l’enfant en dessous de 6-7 ans, les lésions
sont essentiellement des avulsions ou des fractures intéressant ou non le cartilage de croissance,
et épargnant le plus souvent les ligaments. Chez
l’enfant de moins de 10 ans, les entorses existent
et s’accompagnent volontiers de lésions osseuses et/ou cartilagineuses. Chez le grand enfant et
Les radiographies comparatives peuvent facilement
être prises en défaut par l’ossification souvent
asymétrique et par les nombreuses variantes
d’ossification. Leur indication devrait se limiter aux
fractures plastiques pour comparer la courbure
des os longs.
413
G31 Moraux (OK).indd 413
3/06/11 12:39:37
Le pied
échographie
Les séquences employées doivent comporter des
acquisitions en pondération T1 et surtout T2 avec
saturation du signal de la graisse pour l’étude du
cartilage de croissance.
L’échographie complète, de façon intéressante,
les radiographies, car facilement disponible aux
urgences, peu coûteuse, non irradiante, avec une
excellente résolution spatiale et la possibilité
d’étude dynamique et de “palpé” échographique.
Elle permet une étude des structures ligamentaires, des corticales et de la partie périphérique des
cartilages de croissance. L’examen doit être minutieux, bilatéral comparatif et centré sur la région
douloureuse à la recherche :
• de signes directs de fracture corticale avec
une solution de continuité, une déformation
ou une angulation de la corticale, des artéfacts
de répétition [10] ;
• de signes directs de fracture du cartilage de
croissance avec un décalage entre l’épiphyse
et la métaphyse, un élargissement du cartilage,
un hématome et éventuellement de petits
arrachements osseux en son sein ;
• de signes indirects de fracture avec un
hématome sous-périosté [11, 12] ;
• d’une lipohémarthrose qui est pathognomoni
que d’une fracture à extension articulaire [13].
Lésions traumatiques de
la cheville
Fractures métaphysodiaphysaires :
fractures du petit enfant
“Toddler’s fracture” (Fracture du
“bambin”) = “fractures occultes”
La description initiale des “fractures du bambin”
est une fracture en cheveu métaphysodiaphysaire
du tibia distal, pouvant atteindre ponctuellement
le cartilage de croissance [16]. Un cas a aussi été
rapporté à la fibula [17]. Ces fractures du petit
enfant sont secondaires à un mouvement de rotation-torsion de la jambe sur un pied fixé (rotation
sur pied fixé durant l’apprentissage de la marche
ou pied fixé entre les barreaux du lit) [18]. Le trait
de fracture est spiroïde, incomplet, avec une extension et un déplacement limités par un périoste
épais et très résistant (fig. 2). Ces fractures peuvent ne se traduire par aucune anomalie radiologique, même en réalisant des incidences obliques
[19]. Elles sont très fréquemment méconnues,
(14 à 43 % des cas) [16, 19, 20].
Scanner
Cette technique irradiante ne permet pas l’étude des cartilages de croissance et des structures
capsuloligamentaires. Son intérêt est limité aux
bilans préthérapeutiques de fractures articulaires
suspectées ou avérées ou après réduction de fracture avec atteinte articulaire (fractures Salter IIIIV, triplane) [14].
L’anamnèse, difficile, peut méconnaître le traumatisme et se posera alors la question d’une
boiterie de l’enfant. L’examen clinique avec une
douleur de la jambe, un refus complet d’appui et
l’absence d’anomalie biologique doivent faire évoquer le diagnostic de fracture “occulte” et certains
préconisent l’immobilisation avec contrôle radiographique à 2 semaines [21]. En cas de doute diagnostique, on peut aussi réaliser une échographie
complémentaire à la recherche d’un hématome
sous-périosté [12].
IRM
L’IRM permet le bilan des lésions capsuloligamentaires, des contusions-fractures osseuses et
des fractures des cartilages de croissance [15].
414
G31 Moraux (OK).indd 414
3/06/11 12:39:37
Lésions traumatiques spécifiques de la cheville et du pied chez l’enfant
Fractures des cartilages de croissance
En cas de “fracture du bambin” identifiée, il faut
toujours rechercher des ecchymoses en regard ou
d’autres lésions traumatiques, ces fractures pouvant aussi être la conséquence de traumatismes
non accidentels.
Tibia distal
Les fractures épiphysaires du tibial distal représentent le 2e site de fractures des cartilages de croissance après celles du radius distal. Ces fractures
sont classées selon la classification de Salter et Harris, à l’exception des fractures triplanes et de Tillaux
juvéniles qui seront détaillées plus loin. Les lésions
les plus fréquentes sont les lésions de Salter 2.
Fractures en motte de beurre du tibia
distal (fig. 3)
Elles résultent d’un mécanisme en compression,
habituellement à la réception d’un saut ou d’une
chute. Ces lésions, très fréquentes au radius distal,
sont plus rares à la cheville et intéressent essentiellement l’enfant en bas âge avec un excellent
pronostic [22].
Fig. 2 : “Toddler’s fracture” en cheveu
du tibia distal avec trait de fracture
spiroïde du tibia distal étendu au cartilage de croissance.
Les différents types de fractures peuvent être
classés selon le mécanisme traumatique [23]. Celui-ci a aussi une importance fondamentale dans
le pronostic de ces fractures :
Fig. 3 : Fracture en motte de beurre du tibia distal (tête de flèche) et de la diaphyse
fibulaire distale (flèche). Infiltration des parties molles (astérisque).
415
G31 Moraux (OK).indd 415
3/06/11 12:39:37
Le pied
Rotation externe pied en supination
Abduction sur un pied en éversion
Ce mécanisme est presque exclusivement responsable de fractures de type Salter II avec un
fragment métaphysaire postérieur et un déplacement postérieur de l’épiphyse. Une fracture de la
fibula distale est associée dans la plupart des cas
(fig. 4 et 5).
Ce mécanisme est responsable de fractures type
Salter I ou II avec un fragment métaphysaire antérolatéral et un déplacement latéral de l’épiphyse
tibiale dont le versant médial est abaissé. Il s’y associe une fracture diaphysaire distale de la fibula
(fig. 6 et 7).
Flexion plantaire
Ce mécanisme est responsable de fractures type
Salter II avec un fragment métaphysaire postérieur et déplacement postérieur de l’épiphyse
(fig. 8). L’absence de fracture de la fibula permet
de différencier ce mécanisme des traumatismes en
rotation externe.
Adduction
Fig. 4 : Fracture Salter I non déplacée du tibia distal avec petits
arrachements métaphysaires (tête de flèche), fracture spiroïde
de la diaphyse fibulaire distale et importante infiltration des parties molles en avant de l’articulation talocrurale (astérisque).
La traction sur le plan ligamentaire collatéral latéral est responsable d’une avulsion de la pointe
de la fibula ou d’une fracture-séparation de l’épiphyse fibulaire distale. Les forces sont transmises
par le talus à la malléole médiale avec fractures
Salter III ou moins fréquemment Salter IV de la
malléole médiale (fig. 9). Ces fractures sont aussi
appelées fractures de Mac Farland.
Fig. 5 : Coupe échographique sagittale antérieure du tibia distal confirmant l’atteinte du cartilage de croissance avec élargissement du cartilage (double flèche) et hématome intracartilagineux (astérisque).
416
G31 Moraux (OK).indd 416
3/06/11 12:39:38
Lésions traumatiques spécifiques de la cheville et du pied chez l’enfant
Fig. 6 : Fracture Salter I non déplacée
du tibia distal avec bâillement médial
du cartilage (double flèche) en regard
d’une importante infiltration des parties molles (astérisque), petits arrachements osseux métaphysaires associés à une fracture en motte de beurre
diaphysaire distale de la fibula.
Fig. 7 : Fracture Salter II du tibia distal avec bâillement médial du cartilage (double
flèche), fragment métaphysaire antérolatéral (flèches) et petits arrachements osseux
métaphysaires. Importante infiltration des parties molles (astérisque) avec probable
hémarthrose associée.
Fig. 8 : Fracture Salter II isolée du tibia distal avec fragment épiphysométaphysaire postéromédial déplacé en arrière. Infiltration des parties molles
(astérisque).
Fig. 9 : Fracture Salter III de la malléole médiale (flèches) et Salter II de la malléole latérale (double flèche).
417
G31 Moraux (OK).indd 417
3/06/11 12:39:38
Le pied
horizontal dans le cartilage de croissance, et un
plan de fracture sagittal épiphysaire (fig. 12). Cette fracture ressemble à une fracture de type Salter
II sur une radiographie de profil (fig. 13 c-d) et à
une fracture de Tillaux juvénile de face avec une
séparation de la partie latérale de l’épiphyse tibiale (fig. 13 a-b). On distingue plusieurs variétés
de fractures triplanes en fonction du nombre de
fragments (deux à quatre) ou de l’atteinte de la
bosse de Kump [27].
Les fractures triplanes et de Tillaux juvéniles
surviennent à l’adolescence, période de fusion de
cartilage de croissance du tibia distal. Cette fusion
débute à la partie antéromédiale (bosse de Kump)
[24] pour ensuite s’étendre latéralement (fig. 10).
La partie médiale du cartilage de croissance n’est
donc plus une zone de faiblesse, contrairement à
la partie latérale.
Fractures de Tillaux juvénile
Cette fracture détache la partie antérolatérale de
l’épiphyse tibiale distale. Celle-ci n’est pas fusionnée alors que sa partie médiale et postérieure l’est.
Cette fracture résulte d’un traumatisme en rotation externe [25]. Elle correspond à une avulsion
épiphysaire (Salter IV) de l’insertion tibiale du ligament talofibulaire antéro-inférieur. Le fragment
avulsé est déplacé en avant sur la radiographie de
profil (fig. 11a-c). Dans les cas moins évidents, le
seul signe peut être un élargissement de la partie
latérale du cartilage de croissance.
La reconnaissance du trait de fracture épiphysaire est primordiale pour dépister ces fractures
qui peuvent mimer une fracture type Salter II. En
effet, l’atteinte articulaire peut nécessiter une réduction chirurgicale.
Pronostic
Les fractures du cartilage de croissance, majoritairement des types I et II de la classification de
Salter et Harris étaient considérées jusque récemment comme des fractures à faible risque de complications, notamment d’épiphysiodèse (fig. 14).
Plusieurs études récentes rapportent au contraire
une incidence d’épiphysiodèse beaucoup plus importante, entre 32 et 54 % selon les études et le
mécanisme du traumatisme [28-30].
Fractures Triplane
Cette fracture est appelée “triplane”, car les
traits de fractures sont orientés dans 3 plans
de fracture orthogonaux [26] : un plan de fracture métaphysaire coronal, un plan de fracture
Fig. 10 : Fusion physiologique du cartilage de
croissance tibial distal
débutant par la bosse de
“Kump” (flèche) (Schéma d’après Mc Nealy).
418
G31 Moraux (OK).indd 418
3/06/11 12:39:39
Lésions traumatiques spécifiques de la cheville et du pied chez l’enfant
a
b
c
Fig. 11 a-c : Fracture de Tillaux juvénile avec un fragment tibial distal antérolatéral déplacé en dehors et en avant. A noter la
fusion presque complète du cartilage de croissance tibial distal.
Les facteurs de risque d’épiphysiodèse sont :
• un traumatisme à haute énergie, notamment
les accidents de la voie publique avec une
épiphysiodèse qui peut survenir tardivement,
d’où la nécessité d’un suivi prolongé [30] ;
• les fractures sur mécanisme d’abduction,
probablement en rapport avec l’atteinte de la
bosse de “Kump”, qui correspond au point de
départ de la fusion épiphysaire physiologique.
Cette zone est habituellement respectée dans
les autres mécanismes [29] ;
• un déplacement supérieur à 2 mm, avec la
nécessité d’une réduction la plus anatomique
possible. Ce critère reconnu par la plupart des
équipes chirurgicales serait toutefois moins
important que le mécanisme de la fracture
[29] ;
• une réduction orthopédique ou chirurgicale
insuffisante avec notamment l’incarcération
de périoste (100 % d’épiphysiodèse dans ce
cas) [28].
Fig. 12 : Schéma de la fracture triplane
à deux fragments (Schéma d’après Khouri).
419
G31 Moraux (OK).indd 419
3/06/11 12:39:40
Le pied
a
c
b
d
e
Fig. 13 a-e : Radiographies avant réduction et scanner après réduction d’une fracture triplane à 3 fragments ressemblant à une
Salter II de profil. Sur la face, extension du trait de fracture à l’épiphyse séparant un fragment antérolatéral.
420
G31 Moraux (OK).indd 420
3/06/11 12:39:40
Lésions traumatiques spécifiques de la cheville et du pied chez l’enfant
a
b
Fig. 14 :
a) Epiphysiodèse tibiale complète.
b) Epiphysiodèse médiale dans
la zone de la bosse de Kump
responsable d’une déformation en varus.
Les fractures triplanes et de Tillaux juvénile
surviennent sur une physe qui est déjà partiellement fusionnée. Le risque de fusion prématurée,
même s’il est important, n’aura donc que peu de
retentissement. Le pronostic de ces fractures est
essentiellement lié à l’atteinte articulaire avec des
problèmes de congruence articulaire et d’arthrose
secondaire précoce.
comme à l’examen radiologique. En effet, la clinique retrouve une douleur exquise de la pointe
malléolaire latérale ; les signes radiographiques
peuvent se limiter à une simple infiltration des
parties molles en regard de la malléole latérale en
cas de fracture non déplacée (fig. 15). Ces lésions
sont fréquemment non diagnostiquées sur les radiographies initiales (dans 18 % [31] à 50 % des
cas [23]). Le plus souvent, le diagnostic sera posé
sur les radiographies de contrôle avec apparition
d’appositions périostées. Ces fractures peuvent
être isolées ou associées à des fractures de Mac
Farland [23] ou des entorses [32]. En cas de doute
diagnostique, ces fractures de Salter I de la fibula
distale seront facilement diagnostiquées en échographie [33, 34].
Fibula distale
Ces lésions intéressent essentiellement l’enfant
de moins de 6-7 ans [9]. Différencier une fracture
Salter I non déplacée de la fibula distale et une entorse de cheville est difficile à l’examen clinique,
421
G31 Moraux (OK).indd 421
3/06/11 12:39:41
Le pied
a
b
Fig. 15 :
a) Fracture Salter I non déplacée de la fibula distale avec importante infiltration des parties molles (astérisque) et petits arrachements métaphysaires
(têtes de flèche).
b) Coupes échographiques coronales comparatives du cartilage de croissance
fibulaire avec un décalage épiphysaire et un élargissement du cartilage de
croissance (double flèche), avec irrégularités, artéfacts de répétition (flèches) et hématome sous-périosté.
différents. De plus, toutes les études
présentent un biais de recrutement,
car les entorses “bénignes”, potentiellement prises en charge par la médecine de ville, ne consultent pas aux urgences et ne sont pas prises en compte.
Néanmoins, l’étude chirurgicale de
Vanhoven et al. [8] prouve l’existence
des ruptures et avulsions du plan ligamentaire latéral et l’étude prospective
en IRM de Launay et al. [15] démontre
l’existence et la fréquence des entorses
“bénignes” de cheville (27 % d’entorse
ou de rupture ligamentaire en IRM
chez 102 enfants à radiographies normales). Farley et al. [32] retrouvaient
également ce type de lésions ligamentaires du plan latéral isolées ou en association avec des lésions du ligament
tibiofibulaire antéro-inférieur ou des
fractures du cartilage de croissance de
la fibula distale.
Le type de lésion ligamentaire va
évoluer avec la croissance de l’enfant. Les avulsions ligamentaires sont
plus fréquentes chez l’enfant jusqu’à
10 ans, laissant intact les ligaments en
raison de l’hyperlaxité ligamentaire
physiologique [9, 37, 38]. Le fragment
avulsé, généralement de petite taille, “en écaille”,
est difficilement décelé sur les radiographies standard (fig. 16). Ces avulsions sont des fractures ostéochondrales (encore classées Salter ou Ogden
type VII) avec un potentiel de croissance comme
l’épiphyse dont il est détaché et le développement
secondaire d’un os sous-fibulaire pouvant devenir symptomatique [39, 40]. Contrairement à l’os
tibial qui est la conséquence d’un noyau d’ossification accessoire [40], les os sous-fibulaires sont
probablement, dans la grande majorité des cas, la
conséquence d’une avulsion ostéocartilagineuse.
Entorses de cheville
Cette pathologie est mal connue chez l’enfant.
Il n’existe actuellement pas de consensus sur la
réalité et le type de lésions anatomiques, certains
auteurs rapportant que le ligament collatéral latéral est plus résistant que le cartilage de croissance
de la malléole fibulaire [35], ce qui explique la
grande fréquence des fractures Salter et Harris de
la fibula distale [36]. La littérature sur le sujet est
pauvre avec des études essentiellement rétrospectives sur de petits effectifs et sur des enfants d’âges
422
G31 Moraux (OK).indd 422
3/06/11 12:39:41
Lésions traumatiques spécifiques de la cheville et du pied chez l’enfant
Fig. 16 :
a) Avulsion de la pointe fibulaire avec un petit fragment en écaille (flèches) et
importante infiltration des
parties molles adjacentes
(astérisque).
b) Coupe
échographique
axiale stricte. Avulsion d’un
fragment
ostéochondral
(flèche) à l’insertion fibulaire du ligament talofibulaire
antérieur (têtes de flèches)
avec un ligament intact.
a
b
Ces avulsions semblent présenter un risque plus important d’instabilité secondaire et de récidive d’entorse, et nécessiteraient une kinésithérapie avec
travail proprioceptif après immobilisation. Chez
l’enfant au-dessus de 10 ans, les lésions ligamentaires pures prédominent [37]. Enfin, l’adolescent,
du fait de la perte de l’hyperlaxité physiologique,
présentera le même type de lésions que l’adulte.
En dehors de lésions du plan collatéral latéral,
les entorses peuvent aussi concerner le ligament
tibiofibulaire antéro-inférieur avec des avulsions
ostéochondrales du tubercule de Chaput [41]
(fig. 17), des élongations ou des ruptures tendineuses seules ou en association avec des lésions du
cartilage de croissance de la fibula distale [32].
423
G31 Moraux (OK).indd 423
3/06/11 12:39:41
Le pied
a
Fig. 17 :
a) Coupe échographique axiale oblique comparative. Avulsion d’un fragment ostéochondral (flèche) à l’insertion tibiale du ligament tibiofibulaire antérieur (têtes de
flèches) avec un ligament intact.
b) Coupe axiale pondérée en densité de protons avec saturation du signal de la graisse. Avulsion (flèches) d’un fragment ostéochondral (tête de flèche) à l’insertion
tibiale du ligament tibiofibulaire antérieur (tubercule de Chaput).
Lésions traumatiques du pied
b
1 mètre [45]. Ces fractures, même non diagnostiquées initialement, ont un excellent pronostic, car
non déplacées. Chez le grand enfant, les fractures
du calcanéus résultent d’un traumatisme à haute
énergie avec une chute en moyenne de 4 m [45].
Ces fractures sont comparables à celles de l’adulte. Les fractures du rostre seront traitées avec les
entorses du Chopart.
Fractures du talus, du cuboïde et du
calcanéum : les “fractures du pied du
bambin”
Certains auteurs [18] ont étendu le concept de
“fractures du bambin” aux os du tarse. Ces fractures incomplètes, par impaction, sont rares. Dans
la majorité des cas, elles sont méconnues sur les
radiographies initiales et ne sont diagnostiquées
que sur une scintigraphie [20] ou rétrospectivement sur le suivi radiographique.
Cuboïde
La fréquence de ces fractures est certainement
sous estimée. Englaro et al. retrouvaient des anomalies du cuboïde dans 16 % des scintigraphies
réalisées pour boiterie. Comme pour les fractures du calcanéus, l’âge moyen est d’environ 3 ans
(33 mois [46] - 38,7 mois [47]) et le diagnostic est,
dans la plupart des cas, posé sur les radiographies
de contrôle (71 % [47]). Le mécanisme de ces fractures est expliqué par un mécanisme “casse-noisettes” [48], avec un cuboïde compressé à la réception
sur les orteils entre l’avant-pied en flexion plantaire-abduction et l’arrière-pied. Une pathologie
osseuse fragilisante est fréquemment retrouvée.
L’échographie semble pouvoir diagnostiquer ces
fractures par l’étude de la corticale latérale [49].
Calcanéus
Les fractures du calcanéus ne sont pas exceptionnelles. Plusieurs séries de cas ont été rapportées
chez le bambin [42-44]. Ces “fractures du bambin”
du calcanéus intéressent essentiellement la tubérosité calcanéenne postérieure. Elles surviennent
chez des enfants de 3 ans en moyenne [42] et résultent de traumatismes à faible énergie avec un
mécanisme de compression à la réception d’une
chute, comparable à la motte de beurre du radius
distal. Le plus souvent, la chute est inférieure à
424
G31 Moraux (OK).indd 424
3/06/11 12:39:42
Lésions traumatiques spécifiques de la cheville et du pied chez l’enfant
Talus
Les fractures du talus sont rares, représentant
environ 0.08 % des fractures de l’enfant [50]. Ces
fractures résultent, comme chez l’adulte, de traumatismes à haute énergie (accidents de la voie
publique, chute d’une grande hauteur) avec un
âge moyen de 10 ans. Elles sont classées comme
les fractures du talus de l’adulte : fracture du col,
du corps et lésions ostéochondrales. Les plus fréquentes chez l’enfant sont les fractures du col, secondaires à une hyperdorsiflexion avec une composante rotatoire additionnelle [51, 52]. Elles sont
classées, comme pour l’adulte, selon la classification de Hawkins. Chez le jeune enfant, ces fractures majoritairement peu déplacées sont passibles
d’un traitement conservateur, contrairement à
l’adolescent qui présentera plus souvent des fractures déplacées nécessitant le plus souvent un
traitement chirurgical [52]. Ces fractures peuvent
se compliquer de nécrose avasculaire.
Fractures-entorses du Chopart
Fig. 18 : Entorse talonaviculaire avec avulsion de l’insertion
talienne du ligament talonaviculaire dorsal, et importante
infiltration des parties molles en regard (astérisque).
La fréquence de ces lésions est totalement méconnue, aucun cas n’en ayant été rapporté dans
la littérature. Dans notre expérience, ces lésions
ne semblent pas rares. Elles sont majoritairement
à radiographies normales et surviennent chez le
grand enfant et l’adolescent. Les lésions ligamentaires comme chez l’adulte peuvent n’intéresser
que le ligament talonaviculaire, le ligament bifurqué ou les deux. Ces lésions doivent être suspectées devant une impotence fonctionnelle majeure du pied, avec un œdème siégeant en avant
de l’articulation talocrurale et sous la malléole
latérale, avec une tuméfaction du court extenseur
des orteils (muscle pédieux). Souvent, comme
chez l’adulte [53], seule l’échographie permettra
de faire le diagnostic de ces lésions en mettant en
évidence des ruptures ou des avulsions ligamentaires infraradiologiques, notamment du ligament
bifurqué sur le rostre calcanéen (fig. 18).
Avant-pied et métatarses
Fractures-entorses tarsométatarsiennes
et équivalents
Entorse-fracture de Lisfranc
La fréquence des entorses du Lisfranc n’est pas
connue. Seuls quelques cas ont été rapportés dans
la littérature [54, 55]. Dans notre pratique courante, ces entorses ne semblent pas exceptionnelles
chez le grand enfant et l’adolescent. Elles résultent
essentiellement d’une réception sur les orteils, ou
plus rarement d’une compression sur le talon les
orteils en appui ou d’une chute en arrière, l’avant
pied fixé [55]. La fracture-entorse du Lisfranc doit
425
G31 Moraux (OK).indd 425
3/06/11 12:39:42
Le pied
être évoquée cliniquement devant un important œdème de la face dorsale du pied avec
impotence fonctionnelle majeure. Sur les
radiographies de pied, il faut rechercher de
petites avulsions aux insertions du ligament
cunéométatarsien du 1er rayon (fig. 19) et analyser de façon attentive le 1er et le 2e cunéiformes à la recherche de fracture, notamment de
leur versant plantaire. Là aussi, au moindre
doute radiographique ou en cas d’impotence
fonctionnelle majeure de l’avant-pied à radiographies normales, nous recommandons de
réaliser une échographie à la recherche :
• d’une hémarthrose du Lisfranc,
• d’une avulsion ou rupture ligamentaire
des ligaments cunéométatarsiens à la
face dorsale,
• d’un diastasis ou d’une infiltration
hématique hyperéchogène de l’espace
entre le 1er cunéiforme et le 2e métatarsien
sur une coupe transverse dorsale,
• d’une solution de continuité corticale
du versant médial et plantaire du
1er cunéiforme,
• d’une rupture du ligament de Lisfranc
qui peut parfois être étudiée sur une
coupe transverse oblique sous la partie
distale du tendon long fibulaire à la face
plantaire.
| 31,066
|
02/hal.archives-ouvertes.fr-hal-03534938-document.txt_1
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 439
| 705
|
( ) Les forêts du rail Cahier d'Études, Forêt, Environnement et Société XVIe-XXe siècle "Impact sur la forêt des axes et des moyens de circulation", n° 16, 2006, pp. 40-48.
Dans les relations entre les chemins de fer et les forêts - principalement dans les territoires plus ou moins tropicaux qui furent domaines de colonisation française - trois aspects sont à souligner : 1) Le problème des traverses, qui furent choisies longtemps majoritairement en bois tropicaux, mais aussi en métal (la préférence, dans certains cas, aux traverses métalliques étant due aux facilités d'approvisionnement, et aux influences politico-économiques des groupes métallurgiques). Mais vint un jour où le concurrent du bois ne fut plus l'acier, mais le béton, puis le béton pré-contraint 2) La chauffe des locomotives à vapeur au bois (plutôt qu'au charbon). Fut un temps où le chemin de fer s'auto-approvisionnait sans contraintes, ni redevances, le long de la voie. Puis vinrent les permis de coupes de bois, comme aussi le système de la régie directe, mis en oeuvre par les services forestiers qui n'oublièrent pas non plus la création de reboisements appelés parfois "les forêts du rail". Le problème cessa quand arrivèrent, de plus en plus nombreuses, les locomotives Diesel 3) Les conséquences des problèmes forestiers et leurs diverses solutions sur les forêts en général, et les services forestiers coloniaux. Création de réserves forestières, d'arboretum, de jardins d'essai, de plantations en savanes, etc. La période difficile 1940-1947 a bien souligné alors l'importance économique des forêts.
Jean PARDÉ
Adresse de l'éditeur : Institut d'Histoire moderne et contemporaine Groupe d'Histoire des Forêts françaises - 45, rue d'Ulm - F-75005 PARIS. CHABIN (J.-P.), textes réunis par La forêt dans tous ses états : de la Préhistoire à nos jours Besançon : Presses universitaires de Franche-Comté, 2005. - Annales littéraires, 785/24, 409 p. (ISBN 2-84867-108-4)
Prix : 25 euros Ce livre réunit les actes du colloque de l'Association interuniversitaire de l'Est tenu à Dijon les 16 et 17 novembre 2001. Vingt-six contributions sont publiées pour éclairer trois états forestiers : la réalité, la perception, l'imaginaire. Onze articles traitent des réalités plurielles des sylvosystèmes appréhendés sur des pas de temps longs et ronds. Sept communications s'attachent à étudier les perceptions que l'on en a, allant de la vision satellitaire à la patrimonialisation des bois. Enfin, huit articles évoquent les représentations et les formes d'imaginaire suscitées (la forêt, espace sacralisé ; lieu de résistance ; endroit maléfique ; etc.). Au total, cet ouvrage porté par un fil directeur historique rappelle que les interrogations formulées sur les forêts et leurs scénarii d'évolution sont et ont toujours été au coeur des débats de société. Jean-Pierre HUSSON.
| 48,147
|
08a0d8e73b9c23c2a2b0184a64d3d2aa_21
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,011
|
Taux de conversion
|
None
|
French
|
Spoken
| 1,726
| 4,347
|
Dans le tableau, le total des colonnes diffère de la somme de
composantes indiquées, car certaines d’entre elles n’ont pas
été clairement précisées ou ne figurent pas dans cette
ventilation. La colonne relative à l’effet net ne reflète que les
mesures budgétaires discrétionnaires prises face à la crise
financière. Elle ne prend pas en compte l’impact potentiel des
mesures de recapitalisation, des garanties et autres
opérations financières, ni de l’incidence des modifications des
échéances de paiement des impôts et des marchés publics.
Source
• OECD (2009), OECD Economic Outlook: June no 85 – Volume 2009
Issue 1, OECD, Paris.
• OECD (2009), OECD Economic Outlook, Interim Report March 2009,
OECD, Paris.
• OECD (2009), OECD Economic Outlook: November no 86 –
Volume 2009 Issue 2, OECD, Paris.
Pour en savoir plus
Publications analytiques
• Furceri, D. (2009), Fiscal Convergence, Business Cycle Volatility and
Growth, OECD Economics Department Working Papers, no 674,
OECD, Paris.
• Afonso, A., L. Agnello and D. Furceri (2008), Fiscal Policy
Responsiveness, Persistence, and Discretion, OECD Economics
Department Working Papers, no 659, OECD, Paris.
Sites Internet
• OECD Economic Outlook Statistics, www.sourceOECD.org/
database/oecdeconomicoutlook.
• OECD Economic Outlook, http://www.oecd.org/
OECDEconomicOutlook.
PANORAMA DES STATISTIQUES 2010 © OCDE 2010
DE LA CRISE À LA REPRISE • POLITIQUES ÉCONOMIQUES FACE À LA CRISE
POLITIQUE BUDGÉTAIRE
Variations cumulées des soldes
des administrations publiques 2009-11
Dette brute du gouvernement
En pourcentage du PIB de 2008
En pourcentage du PIB 2008, prévisions pour 2011
Cyclique
Dette aux prix de 2008
Autre
Dette cumulée
Facteurs additionnels affectant la dette
Variations cumulées du déficit
200
20
15
160
10
5
120
0
-5
80
-10
-15
40
-20
-25
0
AU
S
LU
X
NZ
L
CH
DN E
K
FI
SWN
E
CZ
E
ES
P
PO
NL L
D
IR
L
AU
DE T
U
CA
HUN
N
GB
R
PR
T
FR
A
US
A
BE
L
IT
A
IS
L
JP
N
IS
HU L
N
IT
A
CH
E
IR
L
CZ
E
PO
US L
A
ES
P
BE
DE L
U
AU
S
PR
T
AU
SW T
CA E
N
FR
A
JP
N
NL
D
LU
X
NZ
DN L
GB K
R
FI
N
-30
1 2 http://dx.doi.org/10.1787/823445563033
1 2 http://dx.doi.org/10.1787/823474056333
Composition des plans de relance
Total sur la période 2008-10, en pourcentage du PIB 2008
Plans de relance, mesures fiscales
Effet net
Plans de relance, dépenses publiques
Total
Individus
Entreprises
Consommation
Cotisations
sociales
Total
Consommation Investissement
Transferts aux Transferts aux
ménages
entreprises
Transferts aux
collectivités
locales
Allemagne
–3.2
–1.6
–0.6
–0.3
0.0
–0.7
1.6
0.0
0.8
0.3
0.3
0.0
Australie
–5.4
–1.3
–1.1
–0.2
0.0
0.0
4.1
0.0
3.0
1.1
0.0
0.0
Autriche
–1.2
–0.8
–0.8
–0.1
0.0
0.0
0.4
0.0
0.1
0.2
0.0
0.1
Belgique
–1.4
–0.3
0.0
–0.1
–0.1
0.0
1.1
0.0
0.1
0.5
0.5
0.0
Canada
–4.1
–2.4
–0.8
–0.3
–1.1
–0.1
1.7
0.1
1.3
0.3
0.1
..
Corée
–6.1
–2.8
–1.4
–1.1
–0.2
0.0
3.2
0.0
1.2
0.7
1.0
0.3
Danemark
–3.3
–0.7
0.0
0.0
0.0
0.0
2.6
0.9
0.8
0.1
0.0
0.0
Espagne
–3.9
–1.7
–1.6
0.0
0.0
0.0
2.2
0.3
0.7
0.5
0.7
0.0
États-Unis
–5.6
–3.2
–2.4
–0.8
0.0
0.0
2.4
0.7
0.3
0.5
0.0
0.9
Finlande
–3.2
–2.7
–1.9
0.0
–0.3
–0.4
0.5
0.0
0.3
0.1
0.0
0.0
France
–0.7
–0.2
–0.1
–0.1
0.0
0.0
0.6
0.0
0.2
0.3
0.0
0.0
Grèce
0.8
0.8
0.8
0.0
0.0
0.0
0.0
–0.4
0.1
0.4
0.1
0.0
Hongrie
7.7
0.2
–0.6
–0.1
2.3
–1.5
–7.5
–3.2
0.0
–3.4
–0.4
–0.5
Irlande
8.3
6.0
4.5
–0.2
0.5
1.2
–2.2
–1.8
–0.2
–0.1
0.0
0.0
Islande
7.3
5.7
1.0
..
..
..
–1.6
..
..
..
..
..
Italie
0.0
0.3
0.0
0.0
0.1
0.0
0.3
0.3
0.0
0.2
0.1
0.0
Japon
–4.7
–0.5
–0.1
–0.1
–0.1
–0.2
4.2
0.2
1.2
0.6
1.5
0.6
Luxembourg
–3.9
–2.3
–1.5
–0.8
0.0
0.0
1.6
0.0
0.4
1.0
0.2
0.0
Mexique
–1.7
–0.4
0.0
0.0
–0.4
0.0
1.2
0.1
0.7
0.1
0.0
0.0
Norvège
–1.2
–0.3
0.0
–0.3
0.0
0.0
0.9
0.0
0.4
0.0
0.0
0.3
Nouvelle-Zélande
–3.7
–4.1
–4.0
0.0
0.0
0.0
–0.3
0.1
0.6
–0.6
0.0
0.0
Pays-Bas
–2.5
–1.6
–0.2
–0.5
–0.1
–0.8
0.9
0.0
0.5
0.1
0.0
0.0
Pologne
–1.2
–0.4
0.0
–0.1
–0.2
0.0
0.8
0.0
1.3
0.2
0.1
0.0
Portugal
–0.8
..
..
..
..
..
..
0.0
0.4
0.0
0.4
0.0
Rép. tchèque
–2.8
–2.5
0.0
–0.7
–0.4
–1.4
0.3
–0.1
0.2
0.0
0.2
0.0
Rép. slovaque
–1.3
–0.7
–0.5
–0.1
0.0
–0.1
0.7
0.0
0.0
0.1
0.6
0.0
Royaume-Uni
–1.9
–1.5
–0.5
–0.2
–0.6
0.0
0.4
0.0
0.4
0.2
0.0
0.0
Suède
–3.3
–1.7
–1.3
–0.2
0.0
–0.2
1.7
1.1
0.3
0.1
0.0
0.2
Suisse
–0.5
–0.2
–0.2
0.0
0.0
0.0
0.3
0.3
0.0
0.0
0.0
0.0
Turquie
–4.4
–1.5
–0.2
–1.1
–0.2
0.0
2.9
0.6
1.2
0.0
0.3
0.6
1 2 http://dx.doi.org/10.1787/827168846578
PANORAMA DES STATISTIQUES 2010 © OCDE 2010
275
DE LA CRISE À LA REPRISE • POLITIQUES ÉCONOMIQUES FACE À LA CRISE
POLITIQUE MONÉTAIRE
Les banques centrales de la zone OCDE ont adopté des dispositions sans précédent face à la crise, en procédant à la fois à
des baisses classiques de leurs taux directeurs, destinées à
réguler l’accès à l’offre de monnaie centrale, et à une expansion de leur bilan par des mesures non conventionnelles.
En bref
La plupart des pays ont eu recours à la politique monétaire à
la suite de la crise pour stimuler la demande globale. Cette
relance par voie de politique monétaire a pris essentiellement
deux formes.
Premièrement, les banques centrales ont réduit rapidement
leurs taux directeurs après le déclenchement de la récession. La
Réserve fédérale des États-Unis a défini comme objectif pour le
taux de ses fonds fédéraux une fourchette de 0 % à 0.25 % dès
décembre 2008, en indiquant son intention de maintenir les
taux à un niveau exceptionnellement bas pendant une période
prolongée. La Banque du Japon a utilisé les marges de
manœuvre (déjà limitées) dont elle disposait pour abaisser ses
taux directeurs à 0.1 %, tandis que la Banque d’Angleterre a
ramené les siens à 0.5 %. La Banque centrale européenne, quant
à elle, a réduit son principal taux directeur de manière moins
prononcée, abaissant à 1 % le taux de son opération principale
de refinancement. Des réductions sensibles des taux directeurs
ont également eu lieu dans d’autres économies membres et
non membres de l’OCDE. Ces baisses des taux directeurs se
sont traduites par des diminutions similaires des taux de
référence sur les marchés monétaires, qui ont atteint des
niveaux négatifs en termes réels.
Deuxièmement, la plupart des grandes banques centrales
ayant épuisé leurs possibilités de réduction des taux
directeurs, la politique monétaire s’est recentrée sur des
mesures moins conventionnelles en vue d’améliorer le
fonctionnement des marchés de capitaux. Ces mesures non
conventionnelles destinées à accroître l’offre de crédit ont
généralement consisté à accorder aux banques un accès aux
liquidités supérieur à celui qui serait normalement requis
pour maintenir les taux de marché à court terme dans les
limites fixées par les autorités, à accroître la masse monétaire
par des mesures d’assouplissement quantitatif et de création
de réserves excédentaires, et à procéder à des interventions
directes dans des compartiments plus larges des marchés du
crédit (allant au-delà du rôle traditionnel de contrepartie des
établissements bancaires joué par la banque centrale), en vue
d’assouplir les conditions globales de crédit dans l’économie.
Ces mesures non conventionnelles ont pris des formes
variables suivant les pays. Aux États-Unis, la Réserve fédérale
est intervenue directement dans les principaux
compartiments du marché du crédit en proie à des
dysfonctionnements, comme ceux des billets de trésorerie et
des produits titrisés, et elle a commencé à réaliser ou à
intensifier, dans le cadre d’opérations d’open market, des
achats directs de titres adossés à des créances hypothécaires,
d’obligations d’agences fédérales et d’obligations d’État à long
terme. La Banque du Japon a elle aussi pris des mesures pour
mettre d’amples liquidités à la disposition du système
financier et, partant, soutenir l’offre de crédit à l’ensemble de
l’économie, notamment en créant une facilité temporaire de
crédit illimitée, garantie par des emprunts de sociétés, au taux
cible de l’argent au jour le jour. Enfin, les mesures non
conventionnelles adoptées par la Banque centrale européenne
ont surtout consisté à assouplir ses conditions d’intervention
et à élargir l’ampleur de ses opérations de fourniture de
liquidités aux établissements financiers. L’ensemble de ces
mesures non conventionnelles se sont traduites par une
expansion sensible des bilans des banques centrales, en
particulier aux États-Unis et au Royaume-Uni.
Les conditions monétaires devraient rester accommodantes
jusqu’à ce que des éléments solides indiquent qu’une reprise
de l’activité économique est bien engagée. Quelques pays, tels
que l’Australie, la Norvège et Israël, ont pris des mesures pour
relever leurs taux directeurs au second semestre de 2009.
276
Définition
Les taux directeurs sont ceux qui s’appliquent aux principales
opérations de refinancement des banques centrales. Les
données utilisées portent sur la fourchette retenue comme
objectif par la Réserve fédérale des États-Unis pour les taux de
ses fonds fédéraux, sur les taux directeurs à court terme de la
Banque du Japon, sur le taux de l’opération principale de
refinancement de la Banque centrale européenne, et sur le
taux d’intérêt directeur de la Banque d’Angleterre. Sont
également représentés sur les graphiques ci-contre les taux
de l’argent au jour le jour sur le marché monétaire.
Les données relatives aux bilans des banques centrales sont
exprimées en monnaie nationale et sont celles qui figuraient
dans la base de données Datastream à la date du 11 juin 2009.
Comparabilité
Les données relatives aux taux directeurs et aux bilans des
banques centrales sont tirées de sources officielles et se
caractérisent par une très bonne comparabilité. Elles peuvent
cependant correspondre à des degrés différents de détente du
marché, suivant les dispositions qui limitent l’accès aux
concours des banques centrales.
Source
• OECD (2009), OECD Economic Outlook: June no 85 – Volume 2009
Issue 1, OECD, Paris.
• Thomson Reuters Datastream.
Pour en savoir plus
Publications analytiques
• Minegishi, M., B. Cournède (2009), The role of transparency in the
conduct of monetary policy, OECD Economics Department
Working Papers, no 724, OECD, Paris.
Publications statistiques
• OECD (2010), Main Economic Indicators, OECD, Paris.
Bases de données en ligne
• Main Economic Indicators.
Sites Internet
• OECD Economic Outlook, http://www.oecd.org/
OECDEconomicOutlook.
• OECD Main Economic Indicators, www.oecd.org/std/mei.
| 47,168
|
63/hal.archives-ouvertes.fr-hal-02309045-document.txt_1
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 3,328
| 5,401
|
« Réseau-Agriville » pour promouvoir des synergies interdisciplinaires et internationales sur les agricultures (péri)urbaines durables en recherche, formation et développement. "Réseau-Agriville" international network to promote interdisciplinary synergies for Research-TrainingDevelopment on sustainable (peri)urban agricultures. Dumat
Camill
e
1,
M
ombo St
é
phane2, Shahid Muhammad3, Pierart Antoine4, Xiong Tiantian5 1-CERTOP UMR 5044 CNRS-UT2J-UPS ; INP-ENSAT ; Réseau-Agriville, [email protected] 2-Université de Sc. et Techniques de Masuku, BP 943, Franceville Gabon, [email protected] 3-Department of Environmental [email protected] Sciences, Comsats-Vehari Pakistan, 4-University of Castile-La Mancha, Toledo-Spain, [email protected] 5-Environmental Science, South China Normal University, Guangzhou, China, [email protected]
L'agriculture (péri)urbaine (AU) en plein essor à l'échelle globale favorise les projets interdisciplinaires et multi-acteurs, aux en eux cruciaux pour les villes durables : système alimentaire durable, gestion des pollutions et transition écologique. Le "Réseau-Agriville" créé en 2014 par un groupe pluridisciplinaire d'enseignants-chercheurs de l'Université de Toulouse co-construit et partage des ressources pédagogiques et de recherche sur l'AU. Une équipe internationale anime et utilise la plateforme numérique dans le cadre de formations (étudiants, collectivités et espace public). Une approche interdisciplinaire (agronomie, urbanisme, écotoxicologie, biogéochimie, sciences sociales) est mise en oeuvre pour appréhender la complexité des écosystèmes. Les synergies entre savoirs et savoir-faire et la vulgarisation scientifique sont visées. Cette communication concerne l'étude des collaborations sur l'AU, grâce au « Réseau-Agriville » : objectifs, création de l'outil et ses usages concrets pour des projets d'enseignement et de recherche et enfin son influence sur les dynamiques sociales impliquées dans les AU. Il est en effet important d'analyser en quoi la transformation numérique induit des complémentarités et des synergies recherche-formation, et de tracer les réponses pour des secteurs tels que l'AU et les territoires, de l'échelle locale à l'échelle mondiale. 1. Contexte global et objectifs du réseau-Agriville
: Selon l'Organisation des Nations Unies pour l'alimentation et l'agriculture (FAO), 60% de l'humanité vit en zone urbaine et les prévisions pour 2050 sont de 80% ; le développement de l'agriculture urbaine (AU) est l'une des clés de la survie alimentaire de l'humanité. L'AU se développe à l'échelle mondiale : les innovations sociales et scientifiques optimisent l'efficacité du métabolisme urbain, l'économie circulaire et promeuvent un système alimentaire durable incluant des pratiques de production écologiques. Mais, les villes se caractérisent également par la concurrence pour l'utilisation des espaces disponibles et les pollutions fréquentes. L'agriculture durable est donc multi-acteurs et participative, efficace et multifonctionnelle, avec de faibles apports (eau, éléments nutritifs, traitements) et générant des améliorations écologiques et des valeurs humanistes. Les villes développent des stratégies avec des projets d'AU pour favoriser des pratiques durables en termes d'inclusion sociale, de justice environnementale, d'alimentation locale, de gestion des écosystèmes et des déchets (Dumat et al., 2016 & 2018a). Plusieurs actions concrètes sont: (i) accroître les connaissances des différents acteurs sur le rôle crucial de la qualité de l'alimentation et de l'environnement sur la santé humaine (Shahid et al., 2016 ; Ministère de l'agriculture et de l'alimentation, 2018); (ii) développer des pratiques durables telles que l'éco-conception, l'agroécologie, des discussions inclusives entre les différents acteurs pour favoriser les synergies et favoriser les changements de pratiques (Ademe, 2016 ; Mombo et al., 2016a ; Foucault et al., 2013); (iii) déterminer les scénarios 'exposition humaine dans le cas des pollutions urbaines (Xiong et al., 2016 ; Mombo et al., 2016b). D'un autre côté, la transformation numérique crée aujourd'hui de nouveaux liens entre la production de connaissances et la conception de nouveaux services et produits (Hachour et al., 2014 ; Lemaire, 2014), notamment pour l'agriculture, l'alimentation, la santé et l'environnement (Laffont et al., 2018 ; Agreenium, 2017 ; Heaton, 2013). La question de l'utilisation des outils numériques est donc centrale pour le continuum Recherche-Formation-Développement. La présente communication concerne l'étude d'une collaboration internationale Recherche-Formation sur l'AU, tout au long de l'utilisation du « Réseau-Agriville»: objectifs, création de l'outil et ses usages concrets pour des projets d'enseignement et de recherche et enfin son influence sur les dynamiques sociales impliquées dans les AU. Il est en effet important d'analyser en quoi la transformation numérique induit des Changements et Transitions : enjeux pour les éducations à l'environnement et au développement durable – 7, 8 et 9 novembre 2017, Toulouse 2 complémentarités et des synergies recherche-formation, et de tracer les réponses pour des secteurs tels que l'AU et les territoires, de l'échelle locale à l'échelle mondiale. La question de recherche étudiée dans la présente communication est donc : En quoi le Réseau-Agriville influence-t-il les interactions entre les différents acteurs concernés par l'AU (à l'échelle locale et globale, de la production à la consommation) tout au long du processus de recherche-action pour promouvoir la transition écologique?
2. Mise en oeuvre :
Le "Réseau-Agriville", réseau international innovant sur l'AU, a été créé en 2014 par un groupe pluridisciplinaire d'enseignants et de chercheurs de différentes institutions de l'Université de Toulouse. Désormais, une équipe internationale de recherche de différentes universités construit et partage collectivement leurs ressources pédagogiques et leurs projets sur l'AU, en utilisant le site internet (http://reseau-agriville.com/) avec des étudiants, des industries, des associations et des citoyens. Une approche interdisciplinaire est mise en oeuvre (biogéochimie et sciences sociales, agronomie et écotoxicologie) pour mettre en évidence la complexité des écosystèmes tels que les sols soumis à des activités anthropiques et favoriser les synergies entre savoirs et savoir-faire (Dumat et al., 2018b ; Ollivier & Bellon, 2013) afin de développer une agriculture urbaine durable en tant que vecteur de transition écologique, en particulier pour un système alimentaire durable (Chahine, 2011). La vulgarisation scientifique est réalisée par des doctorants et M2 de différents pays, qui analysent des publications ou travaillent sur des projets de recherche (parfois avec des entreprises), puis créent des ressources pédagogiques en collaboration avec des professeurs, finalement mises en libre accès sur le réseau. Par ailleurs, des manifestations traitant de l'agriculture urbaine sont régulièrement proposées comme le congrès international (Toulouse, 2017), les ateliers annuels (depuis 2014), l'enseignement scientifique et les films En complément de divers programmes de recherche collaborative sur les jardins collectifs et les fermes professionnelles, l'objectif principal est de produire et partager des ressources pédagogiques et ainsi participer à la diplomatie numérique et à la réduction des inégalités écologiques. Pour une période de quatre ans (2014-2018), nous décrivons et analysons la dynamique scientifique liée à l'AU grâce à cet outil numérique. 3. Résultats et discussions : Vulgarisation scientifique, éducation inclusive, transition écologique et agricultures urbaines
:
Le « Réseau-Agriville" propose aux différents acteurs concernés (étudiants, citoyens, élus, professionnels) des informations en accès libre sur l'AU (principalement en français et en anglais, mais aussi en langue des signes pour promouvoir l'éducation inclusive). Chaque auteur d'une ressource pédagogique est bien identifié en tant que créateur, afin de valoriser son travail et ses compétences et de promouvoir le réseautage des intervenants. En fait, les projets UA multifonctionnels peuvent impliquer à la fois citoyens, politiques, industries, recherches, etc., c'est donc une étape importante pour construire les conditions du respect mutuel et de la concertation sur des sujets controversés tels que la justice alimentaire, les pollutions, les usages des sols disponibles, etc. Cette même philosophie est intégrée dans la réglementation française « ICPE » (installations classées pour la protection de l'environnement) pour favoriser la concertation entre les différents acteurs sur les risques Changements et Transitions : enjeux pour les éducations à l'environnement et au développement durable – 7, 8 et 9 novembre 2017, Toulouse 3 environnementaux et sanitaires induits par les activités anthropiques (http://www.installationsclassees.developpement-durable.gouv.fr/-Installation-classee-principes.html). Les différentes ressources pédagogiques complémentaires disponibles proposent un panel de sujets et de points de vue utiles pour une construction collective de l'AU durable et des potentiels risques alimentaires induits en particulier par les métaux persistants (éco) toxiques. Les ressources pédagogiques (environ 80 en 2018) sont classées en six sessions scientifiques complémentaires : agriculture durable et systèmes alimentaires ; économie circulaire ; développements urbains ; et santé ; Éducation inclusive ; transition écologique. Par exemple, la ressource pédagogique « Biogéochimie des jardins » a été créée en 2016 par Dupouy (de l'association Les jardins de Tournefeuille) et Dumat (du laboratoire Certop) dans le cadre d'un module d'enseignement (Biogéochimie, Environnement et santé pour les étudiants ingénieurs). Cette ressource a pour but de diffuser la science vers la société sur le thème de l'AU et de l'écologie, une grande partie des Français réalisant des activités de jardinage. Plusieurs concepts scientifiques complexes tels que la biodisponibilité, l'(éco)toxicité et les transferts de nutriments et de polluants dans l'environnement sont illustrés. Dix cours sur l'agriculture urbaine ont été organisés dans les jardins collectifs avec des étudiants en agronomie et en sciences sociales ; y compris les jardiniers et des personnes sourdes. En fait, comme l'ont conclu Dumat et al. (2018b, 2018c), ces jardins collectifs sont des terrains précieux pour explorer la transdisciplinarité. Le site internet est également utilisé pour la formation, dans le cadre de projets de recherche associant des jardiniers urbains ou des professionnels des espaces verts urbains (exemple de la formation sur les paysages urbains comestibles proposée à Chaumont sur Loire depuis 2017). Le colloque international sur l'AU (Toulouse, 2017) organisé par le Réseau-Agriville a bénéficié de la participation d'acteurs de typologies variées (femmes et hommes, d'âges variés, chercheurs, étudiants, élus, associations, professionnels des BE, citoyens, services techniques des mairies, etc.), qui ont interagi de façon très dynamique, citoyenne et bienveillante tout au long du colloque lors des exposés, sessions posters, tables rondes, visites de sites ou le 8 juin au cours des animations « AU pour tous ». 300 personnes de toute la planète (Chine, Pakistan, Pologne, Gabon ) ont participé au congrès. Cette forte dimension multi-acteurs, a permis de renforcer le continuum « Formationrecherche-Développement » dans le secteur des agricultures urbaines. En effet, en plus des chercheurs et étudiants, le colloque a bénéficié de la participation d'une quinzaine d'associations (terre de lien, FAT, Etu31, Interpretis, Jardins collectifs, Erable31, etc.), d'entreprises (Energies nouvelles, STCM, Saluterre, etc.) et d'élus de toute la France (Toulouse, Bordeaux, Rennes, etc.). L'équipe de Toulouse Métropole a participé très activement aux diverses étapes du colloque : (i) accueil des participants du colloque à la mairie par Mme Martine Susset, Conseillère municipale chargée de l'environnement, qui a prononcé un discours très argumenté sur l'AU dans notre Région, le 6 juin 2017, la salle des Illustres; (ii) Exposé relatif aux jardins collectifs urbains, le 8 juin par Mme Cosme B. lors des animations pour tous ; Exposés le 9 juin par Mme Toutut Picard E. & M. Lepineux F., dans le cadre de la session scientifique « Transition Ecologique ». La dimension Sciences & Société, c'est aussi le partage des connaissances Universités-Laboratoires-Espace public lors des débats et échanges sur le thème de « l'agriculture urbaine pour tous! » qui ont été organisés dans le cadre du colloque le jeudi 8 Juin 2017, amphithéâtre 417, Maison de la recherche, Université Toulouse – Jean Jaurès, Campus Mirail. Des ateliers interactifs, des débats, des films, avec une partie signée (LSF) dans l'objectif de permettre au plus grand nombre de partager ses connaissances. Des discussions pour sensibiliser, faire avancer le débat, progresser et partager nos ressources accessibles! Les chemins d'une éducation plus inclusive, éclairés grâce en particulier au réseau d'acteurs qui s'est monté dans le contexte du colloque entre l'UT2J, l'INPT, l'INSA, les laboratoires CERTOP & GET, l'INS HEA, le BE Saluterre et de nombreuses associations (Handicap31, FReDD, Interpretis, Fermes d'Avenir, INS HEA). L'intérêt de renforcer Changements et Transitions : enjeux pour les éducations à l'environnement et au développement durable – 7, 8 et 9 novembre 2017, Toulouse 4 l'interface savoir & savoir-faire a également été mis en lumière tout au long du colloque par exemple lors des communications (exposés et posters) concernant les jardins collectifs urbains, sites précieux pour former le grand nombre aux questions d'alimentation durable ou d'interdisciplinarité (Dumat et al., 2017). Les deux tables rondes du 9 juin 2017 relatives aux « synergies entre acteurs » et « projets de recherche participatifs » ont également été l'occasion d'échanges nombreux et intéressants entre les divers acteurs des AU. En effet, la mise en oeuvre des projets d'AU incite à naviguer entre analyse des systèmes complexes et création d'outils opérationnels d'aide à la décision afin de progresser concrètement et dans les temps sur le terrain. Par ailleurs, avec l'objectif d'une empreinte écologique réduite pour le colloque UA&ET-2017, le CERTOP en collaboration avec l'association GreenMyCity a organisé des visites de sites d'AU de proximité (les jardins sur les toits de la clinique Pasteur, le site des jardins du monde du Muséum de Toulouse) et un diner de gala «assiette 2050» qui célèbre l'excellence culinaire bonne pour la planète : goûteuse et moins carnée! Les projets d'AU sont pluridisciplinaires et multi-acteurs. En raison de la rareté des terrains disponibles en ville pour de nouveaux projets impliquant directement les citoyens, il apparait indispensable que les usages des terrains urbains et péri-urbains soient discutés collectivement. Une cinquantaine de jeunes scientifiques (M1, M2, doctorants) de différentes filières de l'Université de Toulouse et plus largement (ingénieurs de l'INPT, droit de l'environnement de l'UT2J, doctorants de l'ED SDUEE, M2 d'I3D de l'INPT-Météo, etc.) ont participé très activement au colloque UA&ET-2017 (posters, exposés, questions, etc.). Cette intégration importante des jeunes scientifiques est une expérience réussie de formation par la recherche qui a aussi favorisé une très bonne ambiance scientifique et humaine. Les jeunes scientifiques invités (exonération des droits d'inscription) ont également été encouragés à prendre la parole, et cette dynamique a aussi favorisé la prise de parole du grand public présent le 8 juin lors des activités « AU pour tous en paroles et signes ». Le réseau des écoles d'agronomie et horticulture (Toulouse, Paris, Nancy, Montpellier, Angers, Rennes) impliqué dans le continuum « Formation-recherche-Développement » sur le thème des AU s'est fortement mobilisé et de nouveaux projets co-construits sont en cours, en collaboration avec Agreenium (https://agreenium.fr/) et UrbanGreenTrain (http://www.urbangreentrain.eu/fr/). Les changements induits par le Réseau-Agriville dans les pratiques pédagogiques et de recherche des utilisateurs. Le Réseau-Agriville permet tout d'abord de renforcer les interactions entre « Formation-Recherche-Développement ». Les étudiants sont en effet projetés vers la société lorsqu'ils créent à partir de publications scientifiques des ressources pédagogiques accessibles à tous en faisant un effort de vulgarisation scientifique. Les enseignants-chercheurs sont contactés par des associations qui souhaitent utiliser les ressources en ligne par exemple dans des formations. Le réseauAgriville est également utilisé pour valoriser des résultats, retours d'expériences de projets de recherche. Les moyens limités mis en oeuvre pour l'animation du site internet sont toutefois un frein actuellement pour développer pleinement la dynamique du réseau. Des réflexions sont donc en cours pour revoir l'organisation et la gestion du Réseau-Agriville car les usagers sont effectivement en attente d'une réactivité accrue pour la mise en ligne plus rapide des ressources pédagogiques et de recherche. Dans un contexte où les assises nationales de l'alimentation (2017) ont rencontré un franc succès et où la tropole toulousaine lance son Plan Territorial Alimentaire (PAT), l'alimentation durable est un thème intégrateur de la région Occitanie qui fédère producteurs et consommateurs. Le marché d'intérêt national de Toulouse (MIN) est également officiellement impliqué depuis mai 2018 sur ce thème du système alimentaire durable, en privilégiant les produits locaux, l'implantation de producteurs (péri) urbains et les pratiques écologiques en agriculture (composts, engrais vert, biologie du sol ). Le "Réseau-Agriville" est aujourd'hui bien connu et actif dans la région Occitanie : citations fréquentes dans la presse, participation à de nombreux événements et processus de recherche-action sur l'AU tels que projet national sur les jardins collectifs "projet Jassur" ou le projet de la métropole Changements et Transitions : enjeux pour les éducations à l'environnement et au développement durable – 7, 8 et 9 novembre 2017, Toulouse 5 toulousaine des "Quinze Sol" zone agricole productive à Blagnac. Depuis 2014 environ 500 personnes différentes ont utilisé les ressources pédagogiques disponibles sur le site. Pour les acteurs impliqués dans l'AU à Toulouse, il a en effet été constaté que la co-création et le partage de ressources et d'informations pilotées par Réseau-Agriville créent des liens et des dynamiques entre associations, étudiants, élus, chercheurs, entreprises, etc. Les personnes impliquées dans des projets UA sont identifiées et peuvent échanger ou travailler ensemble sur un projet spécifique. Grâce au travail en réseau, plusieurs stages étudiants (agronomie, sociologie ou biogéochimie) ont été proposés aux étudiants de l'Université de Toulouse par des bureaux d'études, des développeurs ou des laboratoires depuis 2014. En outre, selon l'AUF (2016), le domaine de l'enseignement supérieur a conduit à de profonds changements qui ont affecté à la fois le comportement, les pratiques pédagogiques, les attentes, les modes de fonctionnement et la gouvernance ainsi que les modalités de recherche. Le numérique est l'une des réponses aux différents problèmes qui affectent l'enseignement supérieur et la recherche. En effet, des outils numériques tels que «Réseau-Agriville» ouvrent des opportunités en termes de «sciences et société», de ressources pédagogiques accessibles (pour les tudiants sourds) ou de diplomatie numérique. De plus, pour les sujets scientifiques traitant de l'AU durable, il est crucial de valoriser et de partager à l'échelle mondiale les ressources pédagogiques (au même titre que la recherche) afin de favoriser l'acculturation des citoyens et leur participation pertinente aux politiques environnementales impactant directement leur santé. Interactions à l'international favorisées par le Réseau-Agriville : De plus, avec l'outil numérique, les collaborations internationales sur l'agriculture durable sont fortement facilitées. En effet, selon les pays, les pratiques de gestion agricole, alimentaires et de gestion des risques et la réglementation des substances chimiques restent très variables. 4.
Conclusion
s et
perspectives : Sur une période de quatre ans, une influence significative du Réseau-Agriville sur la coconstruction de projets dynamiques et de recherche-action UA durables a été observée à deux niveaux: (1) en Occitanie, pour favoriser les liens entre les différents acteurs de la production, de la formation et les consommateurs en agissant dans un mode de recherche-action; (2) au niveau international, pour le partage d'expériences, des sessions de co-formation sur des sujets controversés et complexes tels que la gestion de la pollution et leur impact sur la chaîne alimentaire. Changements et Transitions : enjeux pour les éducations à l'environnement et au développement durable – 7, 8 et 9 novembre 2017, Toulouse 6 L'AU est particulièrement pertinente pour la recherche interdisciplinaire et l'enseignement, et représente un objectif crucial pour les villes durables pour développer la transition écologique. Considérée il y a quelques années comme un phénomène de mode, elle s'installe progressivement en France et dans le monde. Aujourd'hui, bien plus qu'une simple tendance, l'agriculture urbaine (AU) devient une vraie prise de conscience, en renforçant en particulier les liens entre urbains et périurbains. Le « vert » (la nature en ville) se met au service du bien-être social, de la santé environnementale et à long terme, l'agriculture urbaine est envisagée comme une réelle solution assurant alimentation durable et solidarité. A Toulouse, ces nouveaux modes et espaces de production/formation/agrément rencontrent un succès grandissant avec notamment l'explosion des jardins partagés et le développement de zones agricoles de proximité comme celle des 15 sols à Blagnac, où des pratiques agro-écologiques sont mises en oeuvre. A noter, que la métropole toulousaine bénéficie d'un fort potentiel agricole (surfaces relativement étendues de sols fertiles et peu poll ) et d'une dynamique reconnue des différents acteurs des AU : population qui cherche à conjuguer « bien manger » et « mieux vivre ensemble », élus impliqués, professionnels et chercheurs motivés, associations structurées, etc. Les ressources pédagogiques en format numérique peuvent être modifiées pour être largement accessibles aux différents acteurs de différents pays. Le défi du "Réseau-Agriville" est de promouvoir les synergies entre enseignement-recherche-société et de développer des innovations durables en matière d'agriculture urbaine. Les publications scientifiques qui décrivent les mécanismes biogéochimiques impliqués dans les écosystèmes (tels que les sols de jardins urbains) illustrent la complexité des phénomènes et les nombreuses interactions impliquées. Bibliographie ADEME. 2016. Changer les comportements, faire évoluer les pratiques sociales vers plus de durabilité. L'apport des sciences humaines et sociales pour comprendre et agir. ISBN : 97910-297-0363-8. Agence universitaire de la Francophonie (AUF). 2016. Colloque « Innovation et numérique à l'université » Marrakech, Maroc. Agreenium, 2017. Colloque international Agrobiosciences et numérique : les enjeux pour la formation. AgroParisTech, Paris, 30 mai..
| 16,901
|
halshs-04310194-EcoDef%20133.txt_1
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,023
|
Près de 30 Mds d'euros de chiffre d'affaires militaire pour les entreprises de la BITD en 2017. 2019, pp.133 | IISN 1293-4348. ⟨halshs-04310194⟩
|
None
|
French
|
Spoken
| 2,946
| 4,763
|
HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés.
PRÈS DE 30 MILLIARDS DE CHIFFRE D’AFFAIRES MILITAIRE POUR LES ENTREPRISES INDUSTRIELLES DE LA BITD EN 2017
En 2017, les 1 190 entreprises industrielles de la BITD ont réalisé 29,6 milliards de chiffre d’affaires dans le segment de l’armement. Plus de la moitié du chiffre d’affaires militaire provient de la vente et de l’entretien d’aéronefs ou de navires de guerre ou de leurs composants. La recherche et développement pour des produits militaires concerne 21 % des sociétés. EN 2017, LE SEGMENT DE L’ARMEMENT REPRÉSENTE 26,5 % DU CHIFFRE D’AFFAIRES Dans sa composante industrielle, la BITD(1) française réunit 1 190 entreprises(2) constituées de 1 944 sociétés, en 2017 (Figure 1). En 2017, le chiffre d’affaires réalisé par les entreprises industrielles de la BITD dans le seul segment de l’armement s’est élevé à 29,6 milliards d’euros. Pour 100 euros de chiffre d’affaires réalisé, 26,5 euros proviennent du segment de l’armement. La part de chiffre d’affaires militaire moyenne par unité légale, indicateur du taux de dépendance aux commandes militaires, est donc de 26,5 %. Une part en progression de 2,4 points par rapport à 2016.
Matthieu WYCKAERT Chargé d’études statistiques à l’Observatoire Économique de la Défense
. Figure 1 : Répartition du chiffre d'affaires militaire en 2017
Nombre, M€, % Nombre d'entreprises Nombre d'unités légales Chiffre d'affaires militaire réalisé (M€) Part du segment dans le chiffre d'affaires ( %) Grandes Entreprises 45 125 23 660,4 29,5 Entreprises de taille intermédiaire 201 355 4 670,9 20,5 Petites et moyennes entreprises 944 1 464 1 279,2 15,0 Ensemble 1 190 1 944 29 610,5 26,5 Catégories d'entreprises
Source : Enquête sur les Entreprises des Industries de Défense - 2018 (OED).
80 % DU CHIFFRE D’AFFAIRES MILITAIRE EST RÉALISÉ PAR DE GRANDES ENTREPRISES
Du fait de la dynamique industrielle du secteur de l’armement centrée autour des MOI(3), 45 grandes entreprises (GE) concentrent la majeure partie du chiffre d’affaires militaire (80 %). Le segment de l’armement pour les unités légales de ces GE représente en moyenne 29 % de leur chiffre d’affaires, les 71 % restant provenant de marchés civils. Les entreprises de taille intermédiaire (ETI) contribuent quant à elles pour 16 % au chiffre d’affaires militaire réalisé sur le territoire national. Quant aux petites et moyennes entreprises (PME(4)), elles représentent 79 % des entreprises du secteur et 4 % du chiffre d’affaires militaire Plus de la moitié des sociétés intervenant dans le processus de production d’équipements militaires n’y interviennent que marginalement : moins de 10 % de leur chiffre d’affaires (Figure 2). Les sociétés dont le militaire dépasse la moitié de leur chiffre d’affaires représentent 9,4 % des unités concernées. L’activité de ces sociétés concentre 61,5 % du chiffre d’affaires militaire, soit 18,2 milliards d’euros.
(1) Base Industrielle et Technologique de Défense. (2) Au sens de la Loi de modernisation de l’économie de 2008. Dans le décret n° 2008‐1354 du 18 décembre 2008, l’entreprise est la plus petite combinaison d’unités légales constituant une unité organisationnelle de production et jouissant d’une certaine autonomie de décision. (3) Maîtres d’œuvre industriels : Airbus, Arquus, Dassault Aviation, MBDA, Naval group, Nexter, Safran et Thales. (4) Hors micro-entreprises, non enquêtées. L’Observatoire Économique de la Défense diffuse EcoDef par messagerie électronique (format pdf). Si vous êtes intéressé par cette formule, veuillez
adresser
un cour
riel
à
: daf
.oed.fct@intradef
.
gouv
.fr Découvrez toutes les publications du secrétariat général pour l’administration sur : Internet : www.defense.gouv.fr/sga Intranet : www.sga.defense.gouv.fr
L’AÉRONAUTIQUE EST LE PREMIER MARCHÉ DES ENTREPRISES INDUSTRIELLES DE LA BITD AVEC 36 % DU CHIFFRE D’AFFAIRES MILITAIRE
L’industrie de défense française est riche de compétences technologiques, lui permettant de répondre aux besoins en équipements des armées. En termes de chiffre d’affaires militaire, le segment aéronautique est le premier marché avec 36 % des ventes 2017 (Figure 3). Le segment des navires de guerre arrive en seconde position avec 16,5 % des ventes. Le troisième marché est celui du matériel électronique et d’imagerie à usage militaire (par exemple le matériel de contre-mesure électronique ou de brouillage de systèmes), avec 9,6 % du chiffre d’affaires militaire total. En majorité, les sociétés industrielles de la BITD fabriquent et commercialisent plusieurs types de produits militaires. En effet, seules 46,8 % des entreprises industrielles de la BITD vendent un seul type de produit. Ce sont pour deux tiers d’entre elles des sociétés positionnées sur les marchés des aéronefs, des navires de guerre et des véhicules terrestres.
70 60 56,8 50 40 30 18,9 20 1,3 1,1 60 - < 70 % 70 - < 80 % 2,2 3,0 90 % et + 1,8 80 - < 90 % 2,5 50 - < 60 % 3,9 40 - < 50 % 8,7 10 30 - < 40 % 20 - < 30 % 10 - < 20 % 0 < 10 %
Les équipements militaires incorporent une grande part de technologies et ce afin de donner un avantage opérationnel aux troupes engagées sur le terrain. Entre 2015 et 2017, 21 % des sociétés industrielles de la BITD ont réalisé des travaux de R&D pour des produits militaires. Les sociétés réalisant des travaux de R&D militaire ont en moyenne une part de chiffre d‘affaires militaire supérieure à celle des autres sociétés : 40,4 % contre 12,4 % de leur chiffre d’affaires total. Les sociétés réalisant au moins la moitié de leur chiffre d’affaires sur un marché militaire sont deux fois plus représentées parmi les sociétés réalisant des travaux de R&D, que parmi les autres sociétés (20,4 % contre 9,4 %). Cependant, le fait de poursuivre des travaux de R&D militaire n’implique pas forcément de réaliser du chiffre d’affaires de produits militaires une année donnée. Il peut s’agir par exemple de nouveaux entrants sur les marchés militaires, ayant ou non un partenariat avec la Direction générale de l’armement (DGA) pour développer un matériel spécifique. De plus, le cycle de production peut s’étaler sur plusieurs années et demander un temps de développement préalable avant toute commercialisation. Figure 2 : Intensité de l'implication des unités légales dans les industries de défense en 2017
% d'unités légales concernées 21 % DES SOCIÉTÉS INDUSTRIELLES DE LA BITD FONT DE LA R&D MILITAIRE Part (%) du chiffre d'affaires realisé sur les marchés militaires Lecture : 56,8 % des unités légales des entreprises de défense réalise moins de 10 % de leur chiffre d'affaires dans le segment de l'armement en 2017. Source : Enquête sur les Entreprises des Industries de Défense - 2018 (OED).
Figure 3 : Répartition par produit du chiffre d'affaires militaire
En % Libellé du produit 2017 2016 Aéronefs et véhicules aériens (et leurs composants) 36,0 36,5 Navires de guerre (et leurs composants) Matériel électronique, " véhicules spatiaux ", matériel d'imagerie Agents chimiques, substances radioactives et matières énergétiques 16,5 16,4 9,6 9,5 7,6 7,7 Véhicules terrestres (et leurs composants) Bombes, torpilles, roquettes, missiles et armes à énergie cinétique 7,6 7,8 7,4 7,4 Armes, munitions et dispositifs de réglage de fusée Conduite de tir, entraînement, blindage, protection, appareils de plongée 2,7 2,4 1,7 1,3 Indéterminé Total 11,0 11,0 100,0 100,0
Note : Les produits correspondent aux équipements (MI) ou à des regroupements d'équipements de la Liste commune des équipements militaires de l'Union européenne (JOUE 2015/C129/01 du 21 avril 2015). Source : Enquête sur les Entreprises des Industries de Défense - 2018 (OED). Figure 4 : Répartition par fonction et par année du chiffre d'affaires militaire En %
14 % DU CHIFFRE D’AFFAIRES MILITAIRE PROVIENT DE LA MAINTENANCE DES ÉQUIPEMENTS MILITAIRES 02
Toute une chaîne de valeur est présente sur le territoire national, de la construction au démantèlement en passant par le maintien en condition opérationnelle. Forte du positionnement international de la France, la réalisation de systèmes complets intégrant plusieurs équipements militaires (Ensemblier-systémier-intégrateur) est à l’origine de 40 % du chiffre d’affaires militaires en 2017 (Figure 4). L’entretien des équipements, le maintien en condition opérationnelle, représente quant à lui 14 % du chiffre d’affaires militaire. Pour la moitié des sociétés concernées, le chiffre d’affaires militaire remplit de multiples fonctions(5).
2017 2016 Ensemblier-Systémier-Intégrateur Fonction 40,0 39,0 Equipementier 18,9 18,4 Société de maintenance 14,0 12,8 Sous-traitant de fabrication industrielle 12,3 12,2 Société de démantèlement 9,3 8,9 Fournisseur de composants matériels ou logiciels 2,0 2,3 Autres 3,6 6,4 Total 100,0 100,0
Source : Enquête sur les Entreprises des Industries de Défense - 2018 (OED).
(5) Fonction : position dans la chaîne de valeur.
88 % DU CHIFFRE D’AFFAIRES EST RÉALISÉ PAR UNE SOCIÉTÉ DU NOYAU
En schématisant(6), la filière des industries de défense comporte deux niveaux. Une « périphérie » composée de sociétés présentes sur plusieurs marchés et marginalement sur les marchés liés à l’activité militaire, soit 40 % des sociétés du secteur pour 12 % du chiffre d’affaires total. Un « noyau » qui a une part significative de son chiffre d’affaires dans le militaire. Il comprend les fabricants d engins explosifs à propulsion, de matériels électroniques militaires, d’équipements aéronautiques, terrestres et navales, les sous-traitants spécialisés, l’ingénierie en matières énergétiques à vocation militaire, la maintenance en condition opérationnelle et les sociétés de démantèlement. Ce noyau est composé à 53 % de sociétés positionnées sur une unique fonction et un type de produit unique et 13 % à l’inverse sont présentes sur plusieurs maillons de la chaîne de valeur et proposent plusieurs types de produit. Les sociétés du noyau enregistrent pour 2017 une valeur ajoutée globale, relative à la production militaire ou non, de 26,7 milliards, soit un taux de valeur ajoutée(7) de 30,7 %. Les PME de ce noyau se distinguent par une forte valeur ajoutée relativement au volume de leurs ventes.
DÉFINITIONS ET CONCEPTS UTILISÉS
• Marchés militaires Activités qui concourent à produire des biens ou services qui vont être utilisés par les forces armées nationales ou étrangères, dans un cadre terrestre, naval, aérien ou spatial. Sont exclus des marchés militaires les biens et les services destinés à être utilisés par les administrations forces de police et de maintien de l’ordre (par exemple : police aux frontières, police nationale, gendarmerie, société privées de sécurité, les pompiers, la sécurité civile, direction des affaires maritimes, la direction de l’aviation civile, l’administration pénitentiaire). •`Fonctions : positions dans la chaîne de valeur. - Ensemblier-Systémier-Intégrateur : réalise des systèmes complets intégrant plusieurs équipements. - Equipementier : produit ou fournit des équipements physiques répondant à un besoin opérationnel pour un ensemble final. - Sous-traitant de fabrication industrielle : fabrique des pièces des éléments spécifiques sur la base d’un cahier des charges technique défini par le donneur d’ordre ou en concertation avec lui. - Fournisseur de composants matériels ou logiciels : fournit des pièces élémentaires standards (électroniques, mécaniques, hydrauliques, briques logicielles ...) intégrées au produit final ou à l’équipement. - Fournisseur d’outils matériels ou logiciels : conçoit et fournit des outils non intégrés au produit final mais qui participent à sa réalisation. - Société d’ingénierie et de conseil en technologie, sous-traitant d’études informatiques, mécaniques, électroniques ou autres prestataires de services - Société de maintenance : réalise la maintenance en conditions opérationnelles du produit final ou des produits intégrés au produit final. - Société de démantèlement : Démantèle tout ou partie d’un armement et assure éventuellement la valorisation des déchets. - Autres fonctions. (6) En procédant à une classification ascendante hiérarchique sur la part de chiffre d’affaires militaires, les types de produits et fonctions, on obtient une segmentation en 21 classes des sociétés du secteur. L’inertie inter classe est de 72,5 %. On peut distinguer alors un cœur d’industrie et une périphérie suivant l’importance des marchés militaires dans le chiffre d’affaires. (7) Taux de valeur ajoutée : valeur ajoutée hors taxe / chiffre d’affaires hors taxes.
OMIQUE DEFENSE
• Types de produits fabriqués - Véhicules terrestres et leurs composants (dont chars d’assaut, véhicules militaires amphibies, véhicules blindés, véhicules de dépannage et véhicules servant à remorquer ou à transporter des systèmes d’armes ou de munitions). - Navires de guerre et leurs composants (dont navires de surface ou sous-marins, matériel naval spécialisé, moteurs et systèmes de propulsion et appareils de détection immergés). - Aéronefs, véhicules aériens avec ou sans équipage et leurs composants (dont leurs composants spécialement conçus, drones, lanceurs et matériel d’appui au sol, matériel pour leur commandement ou leur contrôle). - Armes et munitions et leurs composants : - Armes à canon lisse et matériel pour le lancement gaz (dont pistolet, fusil, obusier, mortier, arme anti-char, lance-flammes, mitrailleuse) ; - Munitions et dispositifs de réglage de fusée (dont cartouches). - Bombes, torpilles, roquettes, missiles et leurs composants (dont grenades, mines et systèmes de protection des aéronefs contre les missiles); Armes à énergie cinétique et leurs composants (dont leur modèle d’essai et d’évaluation). - Agents chimiques ou biologiques toxiques, substances radioactives et leurs composants (dont agents antiémeutes et le matériel de protection et de décontamination), matières énergétiques et leurs composants (dont explosifs, combustibles, comburants). - Matériel de conduite de tir et matériel d’alerte et leurs composants (dont viseurs d’armement, calculateur de bombardement, système d’acquisition, de désignation, de télémétrie et de poursuite de cible, et leur matériel de contre-mesure). - Matériel électronique, « véhicules spatiaux » et leurs composants (dont matériel de contre-mesure, de guide et de navigation, matériel de brouillage des systèmes mondiaux de navigation par satellite) ; Matériel d’imagerie et leurs composants (dont enregistreur, caméras, radars, sonars). - Blindage et protection et leurs composants (dont plaques de blindage, casques, vêtements de protection balistique) ; Appareils de plongée et de nage sous-marine et leurs composants. - Matériel d’entraînement et simulateurs et leurs composants : entraîneurs à la cible radar, aux tirs, à la guerre anti sous-marine, au lancement des missiles, etc. ; simulateurs de vols, etc. ; systèmes de génération d’images pour simulateurs. Systèmes d’armes à énergie dirigée et leurs composants (dont systèmes lasers, systèmes à faisceau de particules, systèmes radiofréquence de destruction). - Autres produits. Près de 10 000 unités légales ont été interrogées entre le 3 septembre 2018 et le 31 janvier 2019. Le taux de réponse de l’enquête s’élève à 66,7 %. Le champ de l’enquête a été limité à 138 APE (Activité Principale Exercée) de l’industrie manufacturière. Les microentreprises et les entrepreneurs individuels ont été exclus de la base de sondage. Le champ géographique de l’enquête concerne la France entière (DOM compris).
La constitution de l’échantillon
La méthode utilisée est un sondage probabiliste selon un tirage aléatoire simple stratifié. Les critères de stratification sont l’APE et l’appartenance au répertoire Sandie. Chaque unité légale i a une probabilité d’inclusion dans l’échantillon notée. Le plan de sondage étant de taille fixe, ∑ 9 995. En notant la population et l’allocation de la strate h, la probabilité. 1 l’unité appartient au répertoire ou a une des 32 APE repérées Le tirage des unités de l’échantillon est réalisé par la méthode de coordination négative d’échantillon avec prise en compte de la charge de réponse mise en place à l’Insee pour les enquêtes entreprises (GUGGEMOS et SAUTORY, 2012). Les traitements post collecte Après une phase d’apurement, deux traitements ont été appliqués sur les données individuelles afin de corriger la non-réponse partielle et la non-réponse totale. La non-réponse partielle sur les travaux de R&D engagés s’est élevée à 10 %. Elle a été corrigée en utilisant les résultats statistiques des enquêtes R&D auprès des entreprises 2015 et 2016 du MESRI-SIES. La non-réponse totale a fait l’objet de deux traitements différents. Les unités non-répondantes des strates exhaustives ont été imputées à partir des résultats statistiques des enquêtes R&D auprès des entreprises 2015 et 2016 du MESRI-SIES, des résultats des Enquêtes Annuelles de Production (Insee) 2016 et 2017, des données de facturation de Chorus et des déclarations douanières. Pour le reste, il a été opéré une repondération. Un système de pondération avec des poids redressés a été obtenu par la méthode des groupes de réponses homogènes en étudiant la mécanique de non-réponse. Ensuite, les poids de sondage ont été calés sur les totaux connus du chiffre d’affaires total et de la valeur ajoutée 2016 et 2017 des secteurs concernés. Au final, 20 % des unités interrogées ont déclaré appartenir à l’industrie militaire (effectuer des travaux de R&D ou réaliser du chiffre d’affaires pour des produits militaires). La part des unités concernées et imputées est de 10 %.
POUR ALLER PLUS LOIN
• GUGGEMOS F., SAUTORY O., Sampling coordination of business surveys conducted by Insee, The fourth International Conference on Establishment Survey, Montreal, 2012. • HAZIZA D., Imputation and inference in the presence of missing data, Handbook of statistics, Volume 29, Sample Surveys : Theory Methods and Inference, Editors : C.R. Rao and D. Pfeffermann, 215-246, 2009. • MOURA S., La base industrielle et technologique de défense : identification et caractérisation, EcoDef n° 58, 2012. • NEITER B., BUISSON B., Comment redresser une enquête thématique, Document de travail, N° E2010/01, Direction des statistiques d’entreprises, Insee, 2010. • WYCKAERT M., AUNAY T., Rapport qualité sur l’enquête sur les Entreprises des Industries de Défense 2018, OED, septembre LE BULLETIN DE l’OBSERVATOIRE ÉCONOMIQUE DE LA DÉFENSE #133– SEPTEMBRE 2019 À PARAÎTRE Les départs en retraite des militaires en 2018 – EcoDef Statistiques
04 Observatoire Économique de la Défense (SGA/DAF/OED) Balard parcelle Ouest 60 Boulevard du Général Martial Valin • CS 21623 • 75509 Paris CEDEX 15 Directeur de la publication : Christophe Mauriet Rédacteur en chef : Christian Calzada Pour vous abonner > Mél : [email protected] Impression > SGA/SPAC/PGP IISN 1293-4348.
| 412
|
2019AIXM0620_23
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,019
|
État sanitaire entre Ancien régime et Révolution industrielle : étude paléoépidemiologique de deux populations provençales, interactions bio-culturelles
|
None
|
French
|
Spoken
| 6,968
| 10,706
|
Les déformations mécaniques des diaphyses des os longs sont plus fréquemment observées au niveau des membres inférieurs, en comparaison des membres supérieurs. Ces résultats s’accordent alors avec la plupart des autres études traitant du rachitisme (Ortner et Mays 1998 ; Mays et al. 2006 ; Veselka et al. (2015 ; Brickley et al. 2018). Cette différence serait due à l’âge auquel la maladie se développe en relation principalement avec l’âge de l’acquisition de la marche ou de la station debout. Avant la marche, les courbures mécaniques toucheraient alors plus volontiers les membres supérieurs, lors des déplacements à quatre pattes. Les enfants atteints à La Ciotat et à Marseille auraient commencé à marcher ou se tenir debout au moment de la carence. Toutefois, les déformations mécaniques sur les membres inférieurs sont particulièrement rares dans nos deux échantillons (un cas à LC HOP et deux cas à MPC). Ces dernières ne peuvent se former que chez les enfants actifs et mobiles, avec un certain tonus musculaire (Brickley et Ives 2008). Les cas présentés dans cette étude concerneraient-ils principalement des enfants peu actifs, voire alités? En effet, nous avons déjà évoqué l’importance de la comorbidité des insuffisances en vitamine D (Snoddy et al. 2016). Une hypothèse alternative peut également être évoquée et ne contredit pas forcément la première. Les cas référencés dans nos échantillons traduiraient peut-être des stades débutants avant guérison complète ou mort de l’individu. En effet, le rachitisme a plutôt été identifié par l’intermédiaire de déformations au niveau des métaphyses, qui constituent un stade initial de la maladie (Brickley et Ives 2008). L’évasement des métaphyses résulte à la fois de l’élargissement des plaques de croissances et de forces mécaniques appliquées sur l’os. Cette dernière cause est aussi évoquée pour le « cupping » des métaphyses (Mays et al. 2006). Enfin, la bascule médiale des épiphyses distales des tibias a déjà été observée chez des individus très jeunes, et peut survenir en l’absence de courbure de la partie distale de l’os, ce qui pourrait indiquer des pressions musculaires asymétriques sur la plaque de croissance déjà affaiblie/assouplie (Mays et al. 2006). L’absence des critères diagnostiques « classiques » que sont les déformations/courbures des os longs pourrait également provenir de la composition par âge particulière de nos échantillons, où près de 25 % des sujets immatures observables pour le rachitisme sont âgés de moins de 1 an. Cette particularité justifie également la recherche de cette maladie sur les individus les plus jeunes. En effet, nous avons compté huit fœtus pour La Ciotat et 15 pour Marseille. Enfin, le scorbut et le rachitisme partagent un certain nombre de critères diagnostiques et nous avons parfois choisi d’en imputer certains, préférentiellement à une maladie en particulier. Il ne faut pas exclure la présence d’un syndrome carentiel généralisé, qui s’exprime chez les tous petits, potentiellement au travers de critères aspécifiques. 404 Malgré des résultats comparables entre les deux échantillons, quelques distinctions émergent et s’expriment au travers de trois caractéristiques : dans les prévalences chez les adultes, en tenant compte de l’état actif ou guéri du rachitisme, mais également dans la distribution par âge chez les enfants. Tout d’abord, au cimetière des Crottes, on compte significativement plus d’adultes présentant les signes d’un rachitisme résiduel. De plus, chez les enfants, les prévalences sont stables entre les individus décédés avant cinq ans et ceux ayant franchi la classe des 1-4 ans (Figure 306). À l’inverse, au cimetière Saint-Jacques, on compte un seul adulte présentant des signes résiduels d’une carence survenue pendant l’enfance. Les cas de rachitisme ont été observés presque exclusivement chez des enfants décédés avant 5 ans (Figure 306). Enfin, la proportion de cas actifs est plus forte au sein de cette population en comparaison de celle du cimetière des Crottes.
Conclusion rachitisme
L’ensemble de ces résultats tend à montrer des prévalences relativement faibles, quel que soit le site pris en compte. En effet, seuls 12 cas ont été détectés dans chaque site, même en considérant les cas potentiels chez de très jeunes immatures. Ce faible effectif a compliqué nos analyses, notamment en considérant la distribution par âge ou l’état de la maladie. En s’appuyant sur les enfants uniquement, les prévalences augmentent et montrent, encore une fois, la récurrence des carences vécues pendant l’enfance (autour de 10 % d’individus immatures atteints). Cependant, ces carences pourraient rester à un stade débutant, sans évoluer vers des déformations mécaniques très marquées sur les os longs. Au vu de ces résultats, les carences en vitamine D semblent fréquentes, mais peut-être pas suffisamment sévères ou longues pour marquer les os de manière frappante ou durable. Enfin, ces données montrent également une moindre résistance des individus atteints de rachitisme à La Ciotat. Enfin, si la conservation osseuse constitue un critère déterminant à l’établissement du diagnostic du rachitisme, il est clair que la distribution par âge des individus joue également pour beaucoup. La présence de très jeunes immatures (sujets périnataux) dans nos séries a été bénéfique, puisqu’elle a permis l’identification de cas très précoces, encore rares au sein des études bioarchéologiques. Toutefois, l’étude du rachitisme aurait gagné en pertinence si nos échantillons comptaient plus d’individus immatures, en particulier ceux âgés de moins de cinq ans. En effet, les données cliniques ou palépathologiques s’accordent sur le fait que les cas de rachitisme sont plus fréquemment rapportés durant la petite enfance, majoritairement entre trois et 24 mois (Brickley et Ives 2008 ; Snoddy et al. 2016). Par ailleurs, les lésions causées par le rachitisme, actif ou guéri, sont plus marquées chez les immatures, avant que le remodelage osseux puisse oblitérer les stigmates les plus sévères. À l’avenir, les travaux sur cette maladie pourraient davantage s’orienter vers des contextes particuliers tels que les cimetières d’hôpitaux de la période moderne en France récemment fouillés (ex : cimetière de l’Hôpital, rue du Pont des Tanneries à Dijon, cimetière de l’Hôtel Dieu à Lyon), ou les contextes qui ciblent une population particulière, soumise à des conditions de vie favorables au développement de cette maladie. À titre d’exemple, citons les individus 405 qui œuvraient dans les maisons de travail en Irlande, lors de la Grande Famine (Geber 2015) ou les mendiants inhumés dans le cloître de la cathédrale d’El Burgo de Osma en Espagne (Garralda et al. 2002). Pour terminer, l’ensemble des individus portant des lésions évocatrices du rachitisme (dont les sujets montrant des lésions isolées, mais dont l’état de conservation n’a pas permis l’établissement d’un diagnostic) pourrait à l’avenir faire l’objet d’analyses histologiques ou radiologiques. Dans ce travail, leur utilisation a été restreinte par des contraintes de temps et de moyen. Pourtant, il existe des critères clairs et régulièrement mis à jour qui aident à l’établissement du diagnostic (Mays et al. 2006 ; Brickley et Ives 2008 ; Watts et Valme 2018). Ajoutons que récemment, l’identification de cas de rachitisme à partir de radiographie dentaire a offert des résultats prometteurs (D’Ortenzio et al. 2018).
d Synthèse générale i. Analyse par type de dent ou os
Dans les analyses que nous avons menées dans le cadre de cette étude, nous avons toujours pris soin de présenter les fréquences des indicateurs étudiés par type d’os ou de dent. Cette étape préalable au calcul des prévalences nous a permis, dans un premier temps, d’envisager différentes manières de pondérer cette prévalence en fonction de la conservation osseuse ou dentaire, mais également en fonction de la localisation préférentielle des atteintes (Cf. Chapitre 2 IV-3b). Dans un second temps, elle nous permet de mettre en évidence une éventuelle distribution spécifique aux périodes modernes et contemporaines ou, au contraire, de démontrer l’homogénéité de ces tendances au cours du temps. Malgré de fortes disparités mentionnées dans la littérature dans les fréquences entre diverses populations archéologiques en fonction du temps ou de l’espace, les résultats témoignent du caractère immuable de l’expression de certaines pathologies, avec des localisations très nettement préférentielles selon le type d’os ou de dent. ii. Caractérisation des populations modernes et contemporaines de La Ciotat et du quartier des Crottes à Marseille
Les populations à l’étude se caractérisent par des pathologies dentaires récurrentes, comme les caries, le tartre ou les pertes ante mortem. Il existe pour ces populations un lien évident entre les caries et les pertes ante mortem et entre les caries et les abcès. Ces derniers étant clairement perçus comme des conséquences directes des lésions carieuses. Les données s’accordent également sur une usure dentaire limitée, même si elle touche presque tous les individus. À propos de l’usure, il faut noter qu’elle constitue le seul paramètre qui a permis d’établir une différence entre hommes et femmes. Nos résultats s’accordent sur la rareté relative des stress d’origine carentielle dans nos séries. On compte en effet très peu de marqueurs aspécifiques osseux ou de maladies métaboliques. En revanche, le taux élevé des hypoplasies de l’émail dentaire constitue une réelle caractéristique de nos échantillons, puisqu’elles touchent 67,2 % des individus du cimetière Saint-Jacques et 78,4 % des sujets inhumés au cimetière des Crottes. 406 La confrontation des deux séries a révélé davantage de similarités. Mis à part l’usure dentaire déjà évoquée, l’ensemble des indicateurs convergent vers une absence de différence selon le sexe, suggérant potentiellement des comportements similaires entre hommes et femmes. Les relations à l’âge montrent souvent des configurations communes aux deux sites. Certaines pathologies telles que les caries, le tartre, les pertes ante mortem ou la parodontose augmentent de manière significative avec l’âge. D’autres marqueurs ciblent une partie spécifique de la population : les plus jeunes, pour les cribra orbitalia, le scorbut ou encore le rachi . De plus, de nombreux marqueurs (caries, hypoplasies, scorbut, rachitisme, cribra orbitalia principalement) semblent indiquer une nette césure qui s’opère à partir de 5 ans. Pourtant cette césure suggère parfois des tendances contradictoires selon les marqueurs ou selon le site considéré. Ainsi, les différences entre nos deux séries semblent, dans un premier temps, s’articuler autour d’un âge charnière, mais également autour d’une période chronologique clef. Dans un second temps, malgré une homogénéité apparente dans les prévalences, l’analyse fine et détaillée des marqueurs sélectionnés montre bien plus de diversités et semble mettre en évidence des changements subtils dans l’état sanitaire. Cela concerne principalement les caries, l’usure, les hypoplasies et le rachitisme. L’interprétation des marqueurs de stress et maladies métaboliques apparait compliquée, d’autant que ces derniers ne convergent pas vers une interprétation uniforme.
iii. De la pertinence des marqueurs
Les données issues de l’étude des os semblent, à première vue, s’opposer à celles établies à partir des restes dentaires. En effet, nous avons constaté l’omniprésence des hypoplasies de l’émail dentaire et relativement peu de cas de marqueurs de stress osseux ou maladies métaboliques. En s’intéressant à l’âge au décès des individus, il apparait que l’ensemble de ces résultats indiquent uniquement la récurrence des stress survenus pendant l’enfance. Le décalage dans les prévalences entre marqueurs osseux et dentaires pourrait provenir de plusieurs facteurs. Stress et remodelage osseux
Dans un premier temps, il faut considérer le remodelage osseux. Celui-ci se développe tout au long de la vie et est susceptible d’oblitérer complètement les signes osseux de stress, après guérison. Les anémies ainsi que les carences en vitamine C et D laissent alors difficilement des séquelles osseuses durables. À l’inverse, la pertinence de l’étude des hypoplasies de l’émail dentaire réside dans le fait qu’elles ne subissent aucun remodelage. En effet, une fois le défaut formé, celui-ci s’imprime de manière pérenne sur la dent : il laisse alors une trace indélébile à l’âge adulte en cas de survie à l’épisode de stress.
407
Le caractère aspécifique des stress enregistrés
Dans un second temps, l’écart observé entre les différents indicateurs de l’état sanitaire pourrait dépendre du caractère aspécifique des stress enregistrés et des nombreuses étiologies répertoriées pour chaque marqueur (Cf. Chapitre 2 II). Ces marqueurs osseux et dentaires ne répondent peut-être pas aux mêmes types de stress. En effet, ils pourraient se spécifier par l’aspect sévère ou grave des stress biologiques vécus au cours de la vie. À ce propos, les cribra orbitalia, le rachitisme et le scorbut ont été identifiés quasi exclusivement chez des sujets immatures. La relation à l’âge est alors très forte pour ces indicateurs. Ils pourraient entrainer la mort précoce des sujets qui les développent. Les enfants étant considérés alors comme les « non-survivants » de la classe d’âge à laquelle ils appartiennent (Wood et al. 1992 ; DeWitte et Stojanowski 2015). À l’inverse, la différence perçue entre adulte et immature concernant les hypoplasies est bien moindre. La relation est également inversée, avec plus d’atteintes chez les adultes. Ainsi, les épisodes de stress qui s’inscrivent sur les dents conduiraient moins au décès, une fois passé un certain seuil sur le plan de l’âge individuel. Cependant, cette explication ne reflète pas la complexité et la subtilité apparente des relations à l’âge que nous avons observées entre les différents sites et selon les marqueurs. Les divergences dans les prévalences pourraient également exprimer une distinction entre des stress systémiques chroniques et des stress plus épisodiques. L’ensemble des périodes de stress, même les moins sévères ou les plus courtes sont susceptibles de s’inscrire sur les dents. En revanche, seuls les stress chroniques laissent des signes osseux et s’expriment au travers des cribra orbitalia, du scorbut et du rachitisme (Cf. Chapitre 2 II). Enfin, il faut souligner un biais dans la conception même des indicateurs. En effet, les hypoplasies constituent un défaut de minéralisation de l’émail, pour lequel il existe un très large éventail de facteurs. Il s’agit du marqueur aspécifique par excellence. Par contre, les cribra orbitalia exprimeraient une anémie, bien qu’elles puissent être causées par de nombreux facteurs de stress. Le scorbut et le rachitisme sont des maladies, dont la cause est identifiée : il s’agit de carences spécifiques en vitamine C et D. Elles sont, d’autre part, diagnostiquées sur la base de divers critères de diagnostic (Cf. Chapitre 2 II). Ainsi au xixe siècle, l’apparition ou le développement de nouveaux types de stress (par exemple, l’essor du choléra en Europe ou de la syphilis) pourraient s’exprimer sur un même modèle lésionnel. Le caractère aspécifique des marqueurs choisis pourrait alors masquer ces phénomènes. Des marqueurs incomparables? Au vu des résultats, il apparait primordial de croiser de manière conjointe divers types de marqueurs. Chacun est susceptible d’exprimer des périodes de stress variées et vécues tout au long de la vie. Toutefois, la réflexion menée jusqu’à présent nous amène à reconsidérer cette confrontation des différents marqueurs de l’état sanitaire mis en regard dans cette étude. En effet, ces derniers peuvent se distinguer par l’expression de périodes de stress sévère ou bénin, chronique ou épisodique. Ils se différencient également par le fait qu’ils s’inscrivent de manière permanente, laissant 408 ou non des séquelles à l’âge adulte. Ce dernier point pourrait alors justifier l’intérêt de considérer uniquement les sujets immatures dans les études épidémiologiques (Ribot et Roberts 1996 ; Lewis 2002a et b ; 2007 ; 2013 ; Newman et Gowland 2017 ; Gowland et al. 2018). En effet, les sujets adultes pourraient venir parasiter les résultats et les interprétations qui en découlent. Enfin, d’autres marqueurs, notamment métriques, pourraient à présent être envisagé afin de compléter cette étude : l’asymétrie fluctuante (Mopin 2019) ou encore l’inadéquation entre âge osseux et âge dentaire (Kacki 2016). 2 – LES TRANSFORMATIONS DE L’ÉTAT SANITAIRE A LA LUMIÈRE DU CONTEXTE HISTORIQUE
La révolution industrielle voit le passage d’une société majoritairement rurale, où les activités agricoles et artisanales dominent, à une société principalement urbaine et industrielle. Cette transition engendre de profondes mutations économiques, politiques et sociales. Sur les bords de la Méditerranée, elle serait plus tardive que dans le nord de l’Europe, mais plus brutale (Bertrand 2012). À Marseille, elle commencerait à partir des années 1830 (Daumalin et Raveux 2001) et les changements qu’elle engendre pourraient se répercuter dans plusieurs domaines autour desquels s’articule la notion de santé de populations : l’alimentation, les maladies infectieuses ou encore l’accès aux soins et l’hygiène.
a Alimentation i. Alimentation riche en glucides
À partir de la période moderne, on constate une immense dépendance des hommes vis-à-vis d’un seul type d’aliment : les céréales. Celles-ci sont consommées principalement sous forme de pain ou encore de bouillie et gruau. Elles peuvent représenter jusqu’à 80 voire 90 % de l’alimentation paysanne (Flandrin 1996b) et entre la moitié et plus des trois quarts de la part calorique de manière générale en France (Lachiver 1991 ; Morineau 1996). L’alimentation se caractérise alors par une abondance, voire une surabondance des glucides : le pain, ou plutôt la farine constitue l’aliment de base, la nourriture la plus commune (Lachiver 1991). Cette prépondérance des céréales dans le régime alimentaire dépend de nouvelles stratégies de subsistance, liées à l’expansion démographique qui semble se mettre en place à l’échelle de l’Europe dès la période médiévale (Morineau 1996). Toutefois ce processus est arrêté radicalement, notamment par les épidémies de peste de la fin du Moyen-Age. La croissance démographique est alors ralentie et ne reprend qu’à partir du xvie puis du xviiie siècle et s’accélère drastiquement au xixe siècle. Afin de supporter cette nouvelle expansion, bien qu’au départ relativement modeste à l’échelle de la France, on assiste au défrichement massif de nouvelles terres, ou même à l’assèchement de marais dans certaines régions pour transformer ces espaces en terre cultivable. La plus grande partie de l’agriculture se tourne alors vers la culture des céréales, stratégie alimentaire avantageuse, car elle fournit bien plus de calories qu’une terre de même superficie allouée à l’élevage, la chasse ou encore la cueillette (Flandrin 1996b).Cette extension des terres vouées aux 409 céréales en France se répercute dans l’alimentation par un accroissement de la part des céréales dans le régime populaire (Flandrin 1996b). Plus localement, l’arrière-pays ciotaden se place comme un grand producteur de blé, en quantité suffisante pour permettre leur commerce par l’intermédiaire de la Caravane du Levant (Reboul 1934). Au lendemain de la Révolution de 1789, les grains, en général, et le froment en particulier, représentent toujours la ressource principale en Provence (Agulhon 1970). Au xixe siècle, cette tendance est toujours d’actualité : on atteint la consommation de céréale maximale en France dans le dernier quart du siècle, soit entre 1885 et 1894 (Flandrin 1996c). Si la structure de la ration alimentaire subit quelques changements jusqu’à la fin du xixe siècle, la ration calorique augmente d’abord uniquement par le moyen des céréales ou autres féculents (Flandrin 1996a et c). Ainsi, les traditions alimentaires rurales perdurent jusqu’au xxe siècle, marquées par la frugalité et la monotonie de repas, basés sur les céréales et les pommes de terre et presque exclusivement végétariens (Teuteberg et Flandin 1996 ; Lejeune 2013). Le pain chez les ouvriers au xixe en Provence est encore très largement consommé : jusqu’à 2,5 kg par jour pour une famille de quatre personnes, autant par gout que par nécessité. Il reste le symbole de la subsistance quotidienne (Gaillard 1981). Un tel contexte alimentaire, qui privilégie les céréales et donc les glucides, apparait donc particulièrement propice au développement des lésions carieuses (Hillson 1996 ; 2001). Cela se traduit clairement dans nos échantillons : à La Ciotat, plus de 70 % des adultes ont développé au moins une carie et à Marseille, plus de 82 %. Cette tendance est également constatée dans nos données de comparaison (Cf. Chapitre 5 III-2a). ii. Apparition et consommation de nouveaux aliments
La pomme de terre À partir de la révolution industrielle et avec le développement des transports et du commerce mondial, on assiste à l’introduction et à la diffusion à large échelle de nouveaux aliments, notamment des produits d’outre-mer (Flandrin 1996c). C’est le cas, par exemple, de la pomme de terre, féculent particulièrement riche en amidon (glucide que l’on retrouve fréquemment dans les végétaux). Si sa consommation augmente tout au long du xixe siècle, elle ne s’impose réellement qu’en Europe centrale et septentrionale (Flandrin 1996c). Le sucre En revanche, le sucre connait un destin différent. Dérivé de la canne à sucre, il arrive en France réellement à partir du xviie siècle et son essor est lié au succès que connaissent les nouvelles boissons « coloniales » : thé, chocolat et café, consommés sucrés en Europe (Flandrin 1996a et c ; Huetz de Lemps 1996). Si le sucre est bien implanté en France, il reste une denrée onéreuse et réservée aux élites sociales jusqu’au xviiie siècle (Flandrin 1996a). 410
Le xixe siècle voit alors un changement d’ampleur dans sa production et sa consommation, permettant sa large diffusion dans l’alimentation populaire (Huetz de Lemps 1996). À Marseille, sa production et sa consommation restent très limitées jusque dans les années 1830 (Daumalin et Raveux 2001). Au milieu du xixe siècle, le prix du sucre baisse considérablement, notamment grâce à l’arrivée d’une nouvelle matière première : la betterave, qui s’impose dans les raffineries du nord de la France, à partir de 1832. En moins de 10 ans, Marseille devient alors le plus grand entrepôt du sucre colonial et les raffineries prospèrent : le sucre n’est plus une denrée rare, libérant progressivement l’offre et la demande (Daumalin et Raveux 2001). En France, la consommation de sucre est décuplée en 70 ans, passant de 1,2 kg à 12 kg par personne de 1815 à 1894 (Flandrin 1996c) Si l’amidon favorise le développement des caries en abaissant légèrement le pH de la bouche de manière durable, sa consommation régulière aurait pour conséquence une prévalence modérée des caries, à l’image de ce que nous avons observé à La Ciotat. Le sucre, quant à lui, entraine une chute considérable du pH, mais pas nécessairement longue. Ainsi, la combinaison de ces deux types d’aliments pourrait expliquer l’augmentation de la prévalence des caries (Hillson 1996), à l’image de ce qui est constaté à Marseille. L’introduction du sucre de manière régulière dans l’alimentation pourrait alors en partie expliquer la différence perçue entre les deux séries : au cimetière des Crottes, plus de 70 % des individus du cimetière sont atteints de caries et ce, dès l’âge de cinq ans. Enfin, la période de la disponibilité du sucre pourrait concorder avec la progression du nombre de sujets atteints entre 1581 et 1905, principalement marquée entre la phase 1 et 2 du cimetière des Crottes, soit autour des années 1830. Ainsi, l’alimentation plus riche en sucre pourrait jouer logiquement sur l’augmentation des prévalences des caries chez les enfants et sur l’augmentation de la fréquence chez les adultes.
iii. Progrès technique et alimentation Minoteries à vapeur et usure dentaire
Parallèlement à l’introduction de nouveaux aliments, l’industrialisation innove par de nouveaux procédés et matériaux, notamment dans les raffineries. Cela permet de produire une farine plus finement moulue, pour laquelle on compte deux effets majeurs. Tout d’abord, la nourriture plus fine et plus collante entre facilement dans les fissures des dents et les espaces interstitiels. Cela favorise l’accumulation de plaque cariogène au niveau de ces localisations difficiles d’accès (Corbett et Moore 1976). Les caries des fissures et des puits sont considérées comme des lésions irréversibles (Piette et Reychler 1991). Ensuite, elle réduit considérablement l’attrition dentaire et de ce fait, les caries ne sont plus « effacées » (Hillson 2001). Si l’on a souvent mis l’accent sur l’industrie textile ou la sidérurgie pour discuter d’innovations dans le domaine de l’industrie, l’utilisation de la machine à vapeur démarre et se développe dans les minoteries, à une époque où le pain reste la base de l’alimentation (Raveux et Daumalin 2008). Marseille se présente comme une ville pionnière dans ce domaine, avec un premier projet au Pharo, dès 1779, qui malheureusement ne verra pas le jour. Pourtant, avant le creusement du canal de la Durance mis en service en 1848, les moulins hydrauliques s’installent le long des deux seuls 411 cours d’eau de la ville : le Jarret et l’Huveaune. Ces derniers sont souvent asséchés pendant les mois d’été, entrainant une augmentation saisonnière du prix de la farine et donc du pain (Daumalin et Raveux 2004). La première minoterie à vapeur voit le jour en 1817 et son fonctionnement trop couteux, entraine sa fermeture pas moins de deux ans plus tard. La modernisation technologique de la mouture du grain se déroule alors de manière plus significative à partir de la monarchie censitaire, soit à la fin de la première moitié du xixe siècle (1830-1848 ; Daumalin et Raveux 2004). Cette date semble correspondre avec les changements perçus dans l’usure dentaire et les caries, qui s’accentuent principalement entre les phases 1 et 2 du cimetière des Crottes: baisse significative de l’abrasion dentaire, augmentation de la fréquence des caries, baisse de leur sévérité, augmentation du nombre moyen de caries par dent, changement de la localisation des lésions. Révolution agricole et consommation de viande
Le progrès technique se fait également ressentir dans le domaine agricole. Pendant l’Ancien Régime, l’agriculture présente de grandes faiblesses : elle est lente et peu performante en raison du faible rendement de l’outillage, de la pauvreté des engrais et de son fonctionnement à la seule force humaine et animale, utilisée de manière conjointe (Lachiver 1991). Le xixe siècle voit les débuts de la mécanisation, des engrais artificiels et de nouvelles variétés de plantes cultivées, entrainant une amélioration continue des rendements, qui répond au nouveau défi démographique. Entre 1815 et 1851, la production agricole en France croît de 78 % (Albertini 2012). La part de grains disponible pour l’alimentation augmente alors, mais elle s’accroit également pour l’élevage, et le cheptel français progresse. Pendant la période moderne, l’augmentation de la part de céréales dans les régimes populaires se fait au détriment de la consommation de protéines (Flandrin 1996a). On mange alors peu de viande (Morineau 1996 ; Lachiver 1991), elle a plutôt une fonction d’assaisonnement, notamment de la soupe (Flandrin 1996b). De plus, cet essor du pain et des plats des céréales, en font des aliments méprisés par les élites sociales, qui favorisent alors les légumes et dans une moindre mesure les viandes et poissons (Flandrin 1996a). Au cimetière Saint-Jacques, la population inhumée est principalement d’origine modeste et les données issues de l’analyse du tartre pourraient indiquer une faible consommation de viande : les dépôts sont fréquents, mais leur ampleur est très restreinte. L’historiographie considère le xixe siècle comme témoin d’une amélioration du régime alimentaire, notamment grâce à la consommation de viande de plus en plus courante (Teuteberg et Flandrin 1996 ; Lhuissier 2002). En effet, elle est souvent perçue comme un critère essentiel du niveau de vie (Teuteberg et Flandrin 1996). Dans tous les pays européens, la ration moyenne de viande semble s’accroitre de manière continue au cours des xixe et xxe siècles (Flandrin 1996c). Pourtant, nos données ne montrent aucun changement qui pourrait être lié à l’augmentation de la part de protéines dans la ration alimentaire. En effet, les protéines engendreraient une plus forte production de tarte et joueraient un rôle protecteur vis-à-vis des caries. Or, le tartre ne montre aucune évolution entre les périodes confrontées et les 412 caries augmentent. Cela s’expliquerait certainement par le fait que la hausse de la consommation de viande débute tardivement et se fait de manière lente : elle s’élève peu à peu, après 1850. De plus, avant cela, elle a eu le plus souvent tendance à diminuer (Flandrin 1996c). À l’échelle de la France, on considère que la part de produit d’origine animale dans la ration alimentaire est encore faible jusqu’à la fin du xviiie siècle (entre 15 et 17 %), augmente peu jusqu’en 1900 (20 %) et s’élève réellement (45 %) à partir des années 1960 (Toutain 1971, cité par Teuteberg et Flandrin 1996). Plus localement, la Provence produit peu de viande, à l’exception de mouton et de porc. De plus, les prix restent élevés et certainement peu accessibles aux ouvriers qui arrivent massivement au quartier des Crottes dans le deuxième tiers du xixe siècle (Gaillard 1981). De même malgré le littoral à portée de main, le poisson reste cher (Gaillard 1981). iv. Paradoxes des stratégies alimentaires
Une telle stratégie alimentaire, basée principalement sur un seul type d’aliment – les céréales – entrainent deux paradoxes de taille. Sous-nutrition : Économie de subsistance VS économie de marché, disette et mortalité Si la part de céréale augmente afin de garantir à tous une alimentation suffisante sur le plan quantitatif, le moindre dérèglement climatique est vécu comme une véritable catastrophe (Lachiver 1991). Quand le grain vient à manquer, la subsistance de tous n’est plus garantie. Pendant l’Ancien Régime, les faiblesses des techniques de l’agronomie en font une agriculture vivrière, basée sur l’autoconsommation, caractéristique d’une économie de subsistance (Lachiver 1991). Celle-ci empêche la constitution de stocks lors de bonnes années et l’insuffisance des moyens de transport rendent difficiles les réapprovisionnements en cas de pénurie. Les crises frumentaires ont des conséquences désastreuses, dont l’ampleur n’a jamais été égalée par le passé (Lachiver 1991 ; Flandrin 1996 a et b). La fin du xviie siècle et le début du xviiie siècle s’illustrent par de nombreux épisodes de sécheresse, de fortes pluies, de gelées tardives, etc. qui impactent gravement les récoltes, entrainant des périodes de disettes et de famine, elles-mêmes responsables de terribles épidémies. Ces crises ont alors un fort impact sur la morbidité et la mortalité (Lachiver 1991 ; Flandrin 1996 a et b). Deux épisodes retiennent davantage l’attention par leur envergure : celle de 1693-1694 et celle de 1709. Ces crises vont perturber sur une longue durée la structure même de la société. La première est la conséquence de plusieurs années de récoltes médiocres auxquelles s’ajoutent de fortes pluies pendant l’année 1692. Les récoltes sont alors désastreuses et s’en suit une longue période de famine, puis d’épidémie, qui entraine plus d’un million et demi de morts. On retrouve alors dans les archives françaises de nombreuses mentions d’épidémies pour cette période (Lachiver 1991). La Provence semble être relativement épargnée par cet épisode, puisque le commerce dans le bassin Méditerranéen a permis un ravitaillement rapide quand le grain commence à manquer (Lachiver 1991). La Caravane du Levant de La Ciotat est spécialisée au xviie siècle dans le transport de grains (Reboul 1934 ; Deidier et Susini 1957). Toutefois, à la fin du siècle, son activité a commencé à décliner : la crise aurait pu avoir un impact plus fort sur la population ciotadenne, d’autant que si Marseille a pu faire appel au blé étranger, La Ciotat souffre d’un mauvais accès par la terre. La seconde crise de 1709 est directement mentionnée dans les archives de La Ciotat, mais s’avère moins meurtrière. Elle est due à un hiver 413 particulièrement long et froid : « le grand hiver », qui ruine les récoltes. On rapporte alors que le froid est si intense que l’eau a gelé dans le Vieux-Port de Marseille (Lachiver 1991). Ces crises alimentaires, suivies de crises épidémiques pourraient alors expliquer la récurrence des épisodes de stress vécus par les habitants de La Ciotat et matérialisés par les hypoplasies de l’émail dentaire. En effet, rappelons que plus de 60 % des individus inhumés au cimetière Saint-Jacques présentent ces séquelles de stress de l’enfance. Les deux étiologies principalement retenues à leur formation résident dans les carences alimentaires et les maladies infectieuses. De plus, notons que les phases 2 et 3 du cimetière (1642-1710 et 1710-1831) sont marquées par des augmentations (pas toujours significatives) des cas de rachitisme et de scorbut chez les enfants qui meurent avant de passer à l’âge adulte. En revanche, au xixe siècle, l’économie de subsistance s’efface progressivement au profit d’une économie de marché. La révolution agricole et la révolution des transports vont permettre de meilleurs rendements, la constitution de stocks à plus grande échelle, et offrent la possibilité de réapprovisionner l’ensemble du territoire bien plus facilement. (Flandrin 1996c). De plus, avec l’exode rural, les domaines agricoles s’étendent et la mise en culture de pays « neuf » (les États-Unis par exemple) permettant une plus grande production du blé à l’échelle mondiale. À Marseille, se met alors en place un vaste réseau de commerce international qui draine vers le port des matières brutes à transformer (Daumalin et Raveux 2001). Le transport maritime, qui s’oriente vers la navigation à vapeur devient l’une des succursales principales de la révolution industrielle marseillaise (Daumalin et Raveux 2001 ; Bertrand 2012). La France se dote également d’un important réseau ferroviaire, surtout dans la seconde moitié du xixe siècle. La célèbre ligne Paris-Lyon-Mars sera lors inaugurée en 1857. Ainsi, la hausse de la disponibilité des grains et l’amélioration de leur transport entraineraient la fin des famines périodiques en Europe dès le début du xixe. La fin de ces épisodes récurrents de famine pourrait se traduire dans nos données au travers des résultats obtenus sur le rachitisme. En effet, si la prévalence chez les enfants n’augmente guère entre les deux sites confrontés, chez les adultes on remarque une augmentation des cas de rachitisme résiduel. Cela suggère une meilleure survie aux carences en vitamine D pendant la transition industrielle. En revanche, aucun changement n’apparait pour les cas de scorbut, alors même que la vitamine C est absorbable par l’organisme uniquement par le biais de l’alimentation. De plus, les hypoplasies de l’émail dentaire sont non seulement toujours très récurrentes pour l’échantillon du cimetière des Crottes, mais elles sont plus nombreuses (augmentation de la prévalence chez les adultes, de la fréquence et du nombre d’épisodes de stress par individu). D’autres facteurs doivent alors certainement être pris en compte pour expliquer ces fréquences toujours élevées. Malnutrition : mono alimentation et carences alimentaires
Le régime alimentaire décrit ci-dessus révèle d’énormes faiblesses en termes qualitatifs. Pendant l’Ancien Régime, en dehors de période de crise, la production de céréales est suffisante pour nourrir tout le monde : blé et pain sont accessibles à tous (Lachiver 1991). D’après Morineau (1996), majoritairement grâce aux céréales, la ration calorique, 414 en temps normal est égale, voire supérieure à ce qui est de nos jours reconnu comme adéquat pour un « travailleur accomplissant un effort moyen », voire « un travailleur de force ». Mais si l’alimentation est suffisante en termes de quantité, le régime alimentaire populaire reste très peu diversifié : l’augmentation de la part de céréale se fait au détriment de la variété du régime (Lachiver 1991 ; Flandrin 1996a). Les glucides et protéines végétales sont présents en abondance, voire en surabondance, et la consommation de lipides, de protéines animales, tout comme les sels minéraux et les vitamines pourrait être largement insuffisante (Lachiver 1991 ; Morineau 1996). Ainsi, nos résultats pour le cimetière Saint-Jacques ont montré chez les enfants des prévalences relativement élevées de scorbut et rachitisme, indiquant peut-être des stress chroniques rencontrés lorsque la proportion entre les divers apports nutritionnels n’est pas assez équilibrée pour assurer la croissance, voire la survie des enfants. De plus, la malnutrition constitue un facteur de développement des hypoplasies (Goodman et al. 1991) dont la récurrence est attestée chez les enfants, comme chez les adultes. Cette absence de différence selon la maturation des individus pourrait alors mettre l’accent sur ce phénomène généralisé de malnutrition qui s’inscrit sur les dents de la plupart des individus pendant l’en
ance. La période contemporaine est souvent perçue comme un moteur de l’amélioration du régime alimentaire, avec des produits plus largement disponibles, moins chers et plus diversifiés, notamment accompagnés de la conscience naissante et grandissante de la diététique moderne (Flandrin et Montanari 1996). Cependant, cette amélioration semble lente, elle n’est pas continue tout au long du xixe siècle et n’apparait pas homogène entre les différentes régions françaises ou les classes sociales. Les traditions alimentaires héritées de l’Ancien Régime semblent perdurer et pour Flandrin, le début du siècle a certainement vu la détérioration de la qualité de l’alimentation des ouvriers (Flandrin 1996c). Il met toutefois en évidence un certain changement dans la structure de la ration alimentaire qui se fait en deux temps. Tout d’abord, jusqu’à la fin du xixe siècle, on noterait une augmentation de la ration calorique, uniquement par le biais des céréales et des féculents. Dans un second temps, la proportion de glucides diminuerait au profit d’un régime plus varié, incluant davantage de protéines animales, lipides, fruits et légumes. Ces deux étapes et leur timing dépendraient de traditions locales. Nos résultats pourraient indiquer que la population du cimetière des Crottes, particulièrement modeste, se situe toujours dans cette première phase, encore marquée par une alimentation peu variée. Ainsi, nous n’avons observé aucune différence entre les deux sites en ce qui concerne le rachitisme, le scorbut chez les enfants, ou encore la cribra orbitalia, celle-ci pouvant éventuellement refléter des anémies acquises notamment par l’alimentation. De même, un tel mode d’alimentation pourrait également être responsable de la fréquence des hypoplasies. Cependant, l’augmentation des hypoplasies entre Ancien et révolution industrielle ne trouve toujours pas de réelle explication si la composition de la ration alimentaire évolue peu. Les maladies infectieuses constituent l’un des facteurs clefs dans le développement des hypoplasies (Cf. Chapitre 2 III-1a) et il semble nécessaire de se pencher plus spécifiquement sur cet aspect, qui pourrait expliquer le décalage observé entre Ancien Régime et xixe siècle. 415 À plusieurs reprises, nous avons évoqué la présence d’infections. Alimentation et maladies sont intimement liées : l’organisme déjà affaibli par la sous ou la malnutrition est plus susceptible aux maladies et les périodes de famines pendant l’Ancien Régime sont régulièrement suivies d’épisodes épidémiques. Cependant, l’environnement infectieux sera discuté de manière indépendante dans les prochaines parties (Cf. Chapitre 5 I-2b). Enfin, les hypoplasies ont montré des différences entre les deux échantillons dans la structure des prévalences par âge chez les jeunes enfants, mais également dans l’âge auquel se développent ces épisodes de stress. Il apparait désormais important de voir plus en détail d’éventuels changements dans les pratiques alimentaires des plus jeunes. v. De nouvelles pratiques alimentaires chez les plus jeunes
De nouvelles pratiques apparaissent au xixe siècle, notamment avec la progression du travail des femmes hors de la sphère domestique (en usines, manufactures ou bureaux notamment). D’abord réservé aux élites du xviie siècle, le recours aux nourrices devient une pratique courante et s’étend peu à peu aux couches sociales les plus modestes (Rollet 1978 ; Gaillard 1981 ; Fildes 1987 ; Cox 1996). Si le recours aux nourrices est clairement avéré dans le sud-est de la France, les nourrissons accueillis pourraient provenir de diverses régions françaises. La proximité géographique de la nourrice entraine un cout parfois important (Rollet 1978). Les enfants décédés en nourrice sont-ils inhumés sur place, ou rapatrié dans leur région d’origine? À Marseille, pour les familles les plus aisées, les enfants sont envoyés dans le village alentour, ou dans les Basses Alpes (Gaillard 1981). Dans le cas où les jeunes Marseillais seraient placés en nourrice, la concurrence entre les frères de lait peut alors produire chez les nourrices, souffrant parfois elles-mêmes de malnutrition, un lait plus pauvre en nutriments essentiels au nourrisson (Cox 1996 ; Rollet 1978). Cependant, les nourrices « sèches » sont moins couteuses et certainement privilégiées dans le milieu ouvrier en Provence, quand les femmes gardent leur emploi salarié (Gaillard 1981). Cela entraine des conséquences sur les pratiques de l’allaitement, ainsi que sur celles du sevrage. Pratiques de l’allaitement
L’allaitement au sein pourrait être privilégié par une partie de la société jusqu’à la fin du xixe siècle : peut-être pour les classes sociales les plus élevées, par le biais de nourrices allaitantes, ou pour les femmes plus modestes et qui abandonnent le travail à l’usine pour se consacrer aux enfants et travaux domestiques. Toutefois, avec la transition industrielle, on constate à l’échelle de l’Europe un déclin majeur de l’allaitement au sein (Riordan et Countryman 1980), soit par effet de mode, soit par nécessité. L’allaitement artificiel se développe et les recettes varient d’une mère/ nourrice à l’autre. Elles peuvent être largement inadaptées à l’alimentation des nourrissons : souvent un mélange de gruaux et de lait animal (Rollet 1978 ; Riordan et Countryman 1980 ; Cox 1996). Dans le milieu ouvrier en Provence, on semble privilégié chez les nourrices ou dans les rares crèches, la soupe de pain sucré, qui remplace le lait, souvent frelaté dans cette région où l’on n’en produit pas (Gaillard 1981). À la fin du siècle, arrive sur le marché le lait en poudre, mélange de céréales, de lait et de sels minéraux. De plus, ces pratiques d’allaitement artificiel se multiplient alors même que les principes de stérilisation et de pasteurisation, censés éliminer les agents pathogènes responsables de nombre de décès, ne sont ni maitrisés ni généralisés et posent de sérieux problèmes hygiéniques (Rollet 1978 ; Riordan et Countryman 1980 ; Cox 1996). 416
Le sevrage
La mise en nourrice « sèche » pourrait également nécessiter le sevrage précoce des nourrissons. Les sources historiques sont parfois contradictoires pour le sud de la France : les enfants sont-ils sevrés assez tardivement ou très rapidement (Rollet 1978 ; Gaillard 1981)? Le sevrage pourrait subsister jusqu’à un âge tardif (Rollet 1978) et l’alimentation ne répond plus aux besoins nutritifs de l’enfant (Sorcinelli 1996). Au cours de xixe siècle, l’âge au sevrage semble baisser de 18 à 7 mois environ (Rollet 1978). À l’inverse, la croissance du travail des femmes entrainerait un sevrage très précoce (Gaillard 1981), et les enfants sont nourris en alternant biberons et soupes de pain sucrées. Cela illustre certainement la diversité et l’aspect non uniforme des pratiques qui tournent autour du sevrage. Dans le cas d’un allaitement artificiel, un sevrage tardif ou encore précoce, les besoins nutritionnels de l’enfant ne sont clairement pas comblés, ce qui pourrait constituer l’un des facteurs de stress de l’enfance récurant au xixe siècle et visible par exemple, au travers des hypoplasies de l’émail dentaire en augmentation. La nourriture de sevrage, tout comme les recettes de « lait » artificiel, très riche en amidon (Cox 1996 ; Sorcinelli 1996) fournissent beaucoup de calories, mais peu d’éléments essentiels à la survie des nourrissons (protéines, vitamines, calcium, minéraux) et par conséquent, causerait des défauts nutritionnels. L’absence de différence dans l’usure dentaire entre nos deux échantillons pourrait jouer en faveur d’un âge au sevrage qui reste constant du xvie au xxe siècle. Cependant, aux vues du rythme particulièrement lent de l’abrasion dentaire sur l’ensemble des deux populations, l’usure apparait comme un mauvais marqueur pour pister les pratiques de sevrage.
| 45,491
|
26/hal-univ-pau.archives-ouvertes.fr-hal-03270011-document.txt_1
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 2,161
| 3,297
|
BERTHELET et Sylvie PEYROU
VERSUS RENSEIGNEMENT ET TERRORISME : QUAND LE CODE DE LA SÉCURITÉ INTÉRIEURE SE TROUVE DANS LE VISEUR DU JUGE EUROPÉEN
Dans des conclusions rendues le 15 janvier 2020, l'Avocat général près la Cour de justice de Luxembourg, Manuel Campos Sánchez-Bordona, s'oppose aux dispositions du Code de la sécurité intérieure relatives au recueil et la conservation des données à des fins de lutte antiterroriste. Toutefois, il ne remet pas en cause en tant que tel le dispositif prévu par le Code. Son analyse porte avant tout sur le contrôle de proportionnalité. Depuis quelques années, la Cour de justice bâtit une jurisprudence en matière de conservation des données de connexion et des outils du renseignement, au regard des standards européens de protection des données. Or, ces conclusions marquent-elles une continuité de la jurisprudence ou, inversement, l'amorce d'un infléchissement? Une chose est néanmoins sûre, elles expriment un équilibre très exigeant entre la sécurité et la liberté. Le Titre VIII du Code de la sécurité intérieure va être soumis à l'examen attentif de la Cour de justice de l'Union européenne (CJUE). L'un de ses avocats généraux, Manuel Campos Sánchez-Bordona, a présenté, le 15 janvier 2020, des conclusions dans des affaires jointes (C-511/18 et C-512/18) 1 portant sur le recueil et la conservation des données à des fins de lutte antiterroriste. Dans ces conclusions, il s'oppose à une réglementation « qui, dans un contexte marqué par des menaces graves et persistantes pour la sécurité nationale, et en particulier par le risque terroriste, impose aux opérateurs et aux prestataires de services de communications électroniques de conserver, de manière générale et indifférenciée, les données relatives au trafic et les données de localisation de tous les abonnés » (§ 30 aff. C-511/18), quand bien même la durée de cette conservation serait limitée à un an. Est mis en cause dans ces conclusions le dispositif prévu par les articles 851-1 à 6 du Code de la sécurité intérieure ainsi que par les articles L. 34-1 et R. 10-13 du Code des postes et des communications électroniques (de même que l'art. 6 de la loi n° 2004-575, du 21 juin 2004, pour la confiance dans l'économie numérique). Il s'agit notamment du recueil en temps réel et de la conservation par les opérateurs de communications électroniques des données relatives à des personnes suspectées de terrorisme (données techniques relatives à l'identification des numéros d'abonnement ou de connexion, la localisation des téléphones portables, numéros appelés et appelants, la durée et la date des communications).
1
C-511/18 et
C-512/18- ECLI:EU:C:2020:6, La Quadrature du Net, French Data Network, Fédération des fournisseurs d'accès à Internet associatifs Igwan
net c/ Premier ministre, garde des Sceaux, ministre de la Justice, ministre de l'Intérieur, ministre des Armées. Auteur : Pierre Berthelet et Sylvie Peyrou
Plusieurs associations, La Quadrature du Net, French Data Network, Igwan.net et la Fédération des fournisseurs d'accès à Internet associatifs avaient demandé au Conseil d'État d'annuler plusieurs décrets d'application de certaines dispositions du Code de la sécurité intérieure2. Ces associations considèrent que le dispositif français de conservation de données relatives au trafic, de données de localisation et de données de connexion violent les dispositions de la Charte européenne des droits fondamentaux de l'Union européenne. Plus exactement, elles estiment que les obligations prévues par le Code de la sécurité intérieure constituent, du fait de leur caractère général, une atteinte disproportionnée aux droits au respect de la vie privée et familiale, à la protection des données à caractère personnel et à la liberté d'expression. Selon elles, l'encadrement insuffisant par la loi, des pratiques de recueil et de conservation des données, est contraire à une jurisprudence de la Cour, en premier lieu l'arrêt Schrems (arrêt C-498/16) du nom du citoyen autrichien ayant attaqué Facebook pour violation du droit à la protection des données. Comme le prévoit le mécanisme du recours préjudiciel, le Conseil d'État, saisi par les requérants, s'est adressé à la Cour, lui demandant si l'obligation de conservation généralisée et indifférenciée, imposée aux fournisseurs, constituait effectivement une violation de la Charte. En toile de fond, un autre texte européen est questionné, à savoir la directive 2002/58/CE du 12 juillet 2002, qui concerne le traitement des données à caractère personnel dans le secteur des communications électroniques. Le Conseil d'État demande à la Cour, dans sa question préjudicielle, si le dispositif de re et d'utilisation de ces données de connexion qu'elle prévoit à son l'article 15, paragraphe 1 (et sur laquelle se fonde le droit français, notamment le Code sur la sécurité intérieure) constitue, selon les termes de la Haute juridiction administrative, « une ingérence justifiée par le droit à la sûreté garanti » par la Charte des droits fondamentaux de l'Union. Il faut prendre du recul sur cette question préjudicielle car, dans des conclusions du 15 janvier 2020, l'Avocat général près la CJUE Campos Sánchez-Bordona se prononce sur différentes affaires3. Outre la convergence des questionnements juridiques, ces trois affaires vont être l'occasion pour la Cour de rendre un arrêt majeur sur le traitement des données en matière antiterroriste. I) Les dispositions du Code de la sécurité intérieure contraires au droit de l'Union À titre liminaire, il convient d'indiquer qu'une disposition, l'article 4, paragraphe 2, TUE fait de la sécurité nationale l'apanage exclusif des États membres. Toutefois
, l'Avocat général considère que cet article ne s'oppose pas à la capacité de la CJUE de se prononcer sur le droit français relatif à la sécurité nationale. Cette solution n'a rien de surprenant puisqu'il est désormais de jurisprudence constante que la Cour ne considère plus un tel article comme un obstacle à une jurisprudence en matière antiterroriste ou répressive (aff. C207/16, arrêt du 2 octobre 2018, Ministerio Fiscal).
2 Voir à ce sujet La Quadrature du Net, « La loi renseignement attaquée devant le Conseil d'État », 10 mai 2016. URL : 3 https://www.laquadrature.net/2016/05/10/loi-renseignement-attaquee-devant-conseil-detat/ D'abord les affaires C-511/18 et C-512/18- ECLI:EU:C:2020:6. Ensuite l'affaire C-623/17 – ECLI:EU:C:2020
:5,
Privacy
International
c/ Secretary of State for
Foreign and Commonwealth Affairs
,
Secretary of State for the
Home
Department
,
Government Communications Headquarters
,
Security
Service, Secret
Intelligence
Service
. Enfin
l'affaire C-520/18
–
ECLI:EU:C:2020:7, Ordre des barreaux francophones et germanophone, Académie Fiscale ASBL, UA, Liga voor Mensenrechten ASBL, Ligue
des Droits de
l'
Homme ASBL, VZ, WY, XX c/ Conseil des ministres. Sylvi
Au regard de la jurisprudence de la CJUE pouvant éclairer la décision qu'elle pourrait rendre dans les prochains mois, il est possible de relever que la CJUE estime que la lutte antiterroriste ou contre la criminalité constitue une finalité légitime de nature à assurer la restriction de la vie privée ainsi que la conservation des données (resp. l'arrêt du 8 avril 2014, Digital Rights Ireland et l'arrêt du 21 décembre 2016, Tele2 Sverige et Watson). En outre, depuis 1964, à l'instar de la jurisprudence du Conseil d'État français sur l'ordre public, la CJUE rejette les mesures indifférenciées et généralisées et en étudie attentivement la proportionnalité. C'est dans ce cadre que l'Avocat général préconise le retrait de la disposition du Code des postes et des communications électroniques obligeant les opérateurs à conserver de façon indifférenciée et généralisée les données de connexion. On l'a compris, la problématique juridique mise en évidence dans les conclusions de janvier 2020 porte à cet égard sur la proportionnalité. Or, force est de constater que la Cour s'est montrée plus souple du point de vue de la proportionnalité au fil de ses arrêts (voir l'avis 1/15 PNR UE-Canada rendu le 26 juillet 2017), suivie en cela par la Cour européenne des droits de l'Homme dans sa jurisprudence Big Brother Watch, arrêt du 13 septembre 20184. Le véritable enjeu qui se pose actuellement est de savoir si, comme l'énonce Sylvie Peyrou, le « glissement progressif de la jurisprudence, vers plus de sécurité au détriment de la liberté » va se poursuivre ou non5. L'Avocat général semble vouloir y mettre un frein. Certes, si l'accès aux données de connexion était dénié aux services d'en s et de renseignement, plusieurs enquêtes prendraient fin et d'autres pourraient être entachées de nullité, avec un impact non négligeable sur notre dispositif de sécurité nationale. Reste que dans un État de droit, des vices graves entachent de nullité plusieurs enquêtes. En tout état de cause, les enquêtes doivent respecter la norme juridique (on peut reprendre l'opposition « efficacité pratique - efficacité juridique » donnée par l'Avocat général paragr. 135). La CJUE, consciente des impacts de certains de ses arrêts, peut les limiter dans le temps. Ceci étant dit, cette limitation est refusée au regard de la gravité des atteintes (par exemple Digital Rights Ireland). Auteurs : Pierre Berthelet et Sylvie Peyrou technologies, en témoigne la création récente au sein d'Europol de la plateforme dite « NAI » de partage des connaissances, sur les « Nouvelles informations exploitables »6. II) Un équilibre très exigeant entre sécurité et liberté
Sans retracer toute l'argumentation de l'Avocat général, quelques points méritent d'être soulignés. L'Avocat général se montre tout d'abord manifestement conscient des nécessités de la sécurité nationale, notamment dans le contexte de lutte contre le terrorisme. Il reconnaît ainsi le « droit à la sécurité » comme « inhérent à l'existence même et à la survie de la démocratie » (§ 102 aff. C-511/18), et affirme le caractère « vital pour l'État » de la lutte contre le terrorisme, « objectif d'intérêt général auquel un État de droit ne saurait renoncer » (§ 128 ibid.). Mais il s'avère tout aussi soucieux du respect des exigences de l'État de droit – en des termes qui méritent d'être cités in extenso – « à savoir avant tout la soumission du pouvoir et de la force aux limites du droit et, en particulier, à un ordre juridique dont la défense des droits fondamentaux constitue la raison d'être et la finalité » (§ 130 ibid.). Ainsi, même s'il est manifeste que la conservation générale et indifférenciée des métadonnées de communication électronique par les fournisseurs de service est sans doute « la solution la plus pratique et la plus efficace (), la question ne saurait être posée en termes d'efficacité pratique, mais en termes d'efficacité juridique et dans le contexte d'un État de droit » (§ 135 ibid.). Si l'avocat général prend soin de faire de la sorte de longs développements très pédagogiques, c'est évidemment afin de garantir « la barrière infranchissable des droits fondamentaux des citoyens » (§ 131), et d'éviter, qu'au nom de l'efficacité, l'État ne devienne une menace pour le cito . C'est donc à une condamnation réitérée de toute conservation généralisée et indifférenciée des métadonnées de communication qu'appelle ici l'Avocat général, dans les diverses affaires soumises à son examen, dans le droit fil de sa jurisprudence Digital Rights Ireland7 ou Tele2 Sverige8. Insensible aux démarches des autorités des États membres en vue de « nuancer » sa jurisprudence face aux exigences de la lutte contre le terrorisme, l'Avocat général fait montre encore une fois d'une grande pédagogie dans ses conclusions, en livrant en quelque sorte un vade-mecum à destination des autorités nationales concernées et en particulier du législateur. Urgence et situations exceptionnelles ouvrent donc une brèche face à la présumée interdiction absolue de conservation généralisée et indifférenciée des données en cause. L'Avocat général, encore, analyse finement les dispositions du Code de la sécurité intérieure imposant, toujours dans le cadre de la prévention du terrorisme, le recueil en temps réel d'informations (données relatives au trafic et données de localisation) relatives à des personnes préalablement identifiées. Une telle technique, qui n'implique pas par définition de conservation généralisée et indifférenciée des données, est validée ainsi par l'Avocat général, du moment que les procédures et garanties prévues en matières d'accès aux données soient respectées. Enfin, l'Avocat général, tout à fait lucide sur le fait qu'une conservation ciblée des données – conforme aux prescriptions de la jurisprudence, par exemple dans l'arrêt Tele2 Sverige – présente un certain nombre de difficultés, pratiques ou juridiques, en appelle alors au législateur afin d'imaginer des formules susceptibles de satisfaire aux deux exigences de tout État de droit apparemment si peu conciliables, la lutte contre le terrorisme et la protection des données personnelles, c'est-à-dire la sécurité contre la liberté. Il suggère pour ce faire de s'appuyer notamment sur les pistes explorées par les groupes de travail du Conseil (§ 92 aff. Ordre des Barreaux francophones et germanophones). Il dénie en effet toute compétence au juge de Luxembourg dans cette tâche réglementaire visant à préciser par exemple quelles catégories de données peuvent être conservées et pour combien de temps, cela étant du ressort du législateur de l'Union ou des États membres. C'est à ce dernier qu'il appar « de placer le curseur au bon endroit » (§ 101) afin d'assurer l'indispensable équilibre évoqué. Pierre BERTHELET est Docteur en droit, spécialisé en droit de l'UE et chercheur associé auprès du CREOGN Sylvie PEYROU est Maître de conférences HDR, Université de Pau et des Pays de l'Adour, CDRE Bayonne Le contenu de cette publication doit être considéré comme propre à ses auteurs et ne saurait engager la responsabilité du CREOGN..
| 52,996
|
c2976752e3ad199a266842e2880e77f3_1
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,006
|
Présence d'Hannah Arendt
|
None
|
French
|
Spoken
| 994
| 1,848
|
Le Devoir, Montréal, Édition du samedi, 21 septembre 2003 – idées.
Présence d’Hannah Arendt
http://www.vigile.net/ds-actu/docs3a/03-9-20-1.html#20ldgl2
Georges Leroux,
Professeur, département de
philosophie, UQAM.
[L’auteur est spécialisé dans la
philosophie ancienne, le platonisme et
le néoplatonisme et l’histoire des
religions.]
[L’auteur a autorisé le 17 décembre
2006 Les Classiques des sciences
sociales à diffuser toutes ses
publications].
[email protected]
Titre VO : Hannah Arendt, le
totalitarisme et le monde
contemporain
Description : Sous la direction de
Daniel Dagenais, Presses de
l'Université Laval, Québec, 2003, 611
pages
Les raisons pour lesquelles le dialogue
avec la pensée d'Hannah Arendt est
aujourd'hui devenu essentiel ne sont
pas simples. Ceux de ses lecteurs qui
veulent replier son ambition sur une
lecture purement adossée à l'histoire en
sous-estiment la portée philosophique
universelle. Ils effacent trop
rapidement l'importance de son rôle
dans la transition de la philosophie
politique d'une période polarisée par le
communisme à celle que nous
connaissons, portée par le triomphe du
libéralisme. Ils minimisent de la sorte
le caractère profond de son analyse du
totalitarisme, qui est de nous faire
comprendre notre exigence de liberté
comme devoir et notre histoire comme
danger.
En revanche, ceux qui brandissent sa
philosophie du monde commun
comme pure légitimation de
l'expérience démocratique américaine
occultent entièrement la lucidité du
regard qu'elle a porté sur son temps -et notamment sa critique féroce de
l'individualisme --, un regard qu'elle ne
manquerait pas de porter sur le nôtre.
Arendt fut, insistons-y, l'une et l'autre :
critique implacable de la dérive
totalitaire, elle fut aussi une
philosophe, à la fois limpide et intense,
de «la condition de l'homme
Georges Leroux, “Présence d’Hannah Arendt.” (2003)
moderne», selon le titre du grand
ouvrage de sa maturité.
Dans un recueil d'une richesse
exceptionnelle, le sociologue Daniel
Dagenais a réuni un ensemble de
contributions qui entreprennent non
seulement de relire les analyses du
phénomène totalitaire (on retrouvera
tous ces écrits rassemblés dans
l'édition des Origines du totalitarisme,
publiée sous la direction de Pierre
Bouretz, Gallimard, « Quarto », 2002),
mais également de les prolonger dans
une critique de la postmodernité qui
ouvre un horizon très différent des
perspectives découpées par Hannah
Arendt.
Parce que les auteurs réunis ici
partagent une même interprétation de
la crise de la modernité, ils engagent
avec elle un dialogue qui permet une
lecture du totalitarisme au présent.
L'antisémitisme, le nazisme, le
stalinisme ne sont pas seulement des
faits passés dont il s'agirait d'exposer
les conditions de possibilité, ce sont
aussi des constantes, des menaces qui
ne cessent de faire irruption : la
transformation de la nature humaine
comme but ultime de la tyrannie,
l'antihumanisme lié à la terreur
radicale, la rupture avec toute tradition
et le fantasme d'un commencement
absolu, tout cela demeure associé à
l'expérience postmoderne et permet de
prolonger les analyses d'Arendt au sein
même du monde actuel.
Pour ces auteurs, le monde totalitaire
analysé par Arendt comme monde
déstructuré dans l'effondrement de la
société occidentale est encore le nôtre.
Il l'est certes d'abord comme monde
2
asservi aux dominations, mais plus
encore en tant que monde livré à
l'oubli du politique et au triomphe
pathologique de l'économie et de
l'organisation.
Mal et modernité
Cette réflexion vient à point. Dans
l'urgence de comprendre la
mondialisation de la terreur autant que
les systèmes qui la rendent possible,
ces essais nous invitent à retrouver
chez Arendt les instruments d'une
compréhension renouvelée de la vérité
de l'époque. Des problèmes aussi
difficiles que la question du mal dans
la terreur, un véritable abîme pour la
pensée -- abordé ici dans un essai
important de Dario de Facendis --,
peuvent en effet être repris dans son
anthropologie et réarticulés sur
l'angoisse actuelle du mal.
On en dirait autant du stalinisme
analysé comme industrie par Jacques
Mascotto, qui propose aussi un essai
percutant sur le terrorisme d'avant et
d'après le 11 septembre. D'autres,
comme la nature même de la
modernité, sa genèse, ses crises au sein
du capitalisme, sont l'objet d'analyses
qui, sans être inscrites directement
dans la pensée d'Arendt, en constituent
pour ainsi dire le contrepoint : c'est le
cas des deux contributions majeures de
Michel Freitag, où on trouvera un
exposé historique lumineux de la
construction des premiers
totalitarismes et une critique
impitoyable de l'américanisation
comme totalitarisme systémique.
Les modèles théoriques mis en oeuvre
ici se fondent sur une lecture complexe
Georges Leroux, “Présence d’Hannah Arendt.” (2003)
de l'histoire du XXe siècle et le
dialogue avec la pensée d'Arendt
manifeste la fécondité de sa pensée,
pour ne rien dire de sa profonde
pertinence aujourd'hui. Dédié au
regretté Hubert Guindon, qui signe un
bel essai sur le nationalisme, ce livre
montre la richesse de la sociologie
critique au Québec.
La pensée de la liberté
Au même moment paraît une étude de
Francis Moreault sur la pensée de la
liberté dans l'oeuvre d'Arendt. Principe
essentiel de la fondation politique,
c'est-à-dire de toute initiative humaine
en vue du bien commun, l'amour de la
liberté est présenté comme la matrice
de sa pensée politique.
Attentif à l'inspiration grecque de cette
pensée, l'auteur propose une recherche
ancrée dans l'histoire de la philosophie
mais aussi dans l'expérience moderne
qui a tant inspiré le travail d'Hannah
Arendt. Ce livre est beaucoup plus que
l'essai annoncé par son sous-titre, c'est
une étude fouillée, écrite dans
l'admiration de l'effort déchirant
3
d'Arendt pour retrouver, contre
l'apolitisme contemporain, une
expérience politique substantielle.
Notons également la réédition du livre
de Martine Leibovici consacré au
judaïsme et à l'antisémitisme dans
l'oeuvre d'Arendt, où l'auteur reprend
toutes les questions liées non
seulement à l'identité juive mais aussi
à la tradition sioniste et au judaïsme
moderne, où la philosophe, qui fut le
témoin âprement contesté du procès
Eichmann, trouva les sources de sa
pensée de la libération et du monde
commun.
Hannah Arendt, une Juive Expérience, politique et histoire
Martine Leibovici
Préface de Pierre Vidal Naquet
Desclée de Brouwer
Paris, 2002, 484 pages
Hannah Arendt, l'amour de la
liberté - Essai de pensée politique
Francis Moreault
Presses de l'Université Laval
Québec, 2003, 236 pages.
| 31,863
|
56/hal.sorbonne-universite.fr-hal-02866029-document.txt_1
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 2,661
| 5,178
|
ERGANZENDER NACHTRAG ZU R. SCHUSTER : DAS KALKALGEN-TROTTOIR AN DER COTE DES ALBÉRES ALS LEBENSRAUM TERRICOLER KLEINTIERE (Vie et Milieu 1956)
Wàhrend der Drucklegung der angefûhrten Arbeit ergaben sich noch folgende Ergânzungen : Die als « Protereunetes sp. » angefûhrten Juvenilstadien konnten auf Grund inzwischen aufgefundener adulter Exemplare unter Halotydeus - vermutlich H. h y d r o d r o m u s var. albolineata - eingereiht werden. Ausserdem fanden sich unter den Juvenilstadien dieser Art noch einige Exemplare einer àhnlichen Trombidiforme, mit weissen Adulttieren, die noch nicht nàher determiniert sind. Unter den zahlreich vertretenen Exemplaren von Nanorchestes collinus wurden zusàtzlich noch einige Individuen von N. amphibius gefunden! Inzwischen konnte auch der Chilopode von Dr. O. Kraus, Frankfurt, genau determiniert werden. Es handelt sich um die thalassobionte Spezies H y droschendyla submarina (GRUBE). Eine weitere Bearbeitung dieser Ergânzungen erfolgt derzeit im Rahmen der Auswertung vergleichender Untersuchungen an den Trottoires der Provence; die Verôffentlichung erfolgt. demnâchst an anderer Stelle.
R. Le professeur REMANE, de l'Université de Kiel, eut l'occasion de récolter la faune interstitielle littorale portugaise au cours d'une Mission en mars 1954. Il eut l'amabilité de nous confier pour étude un spécimen de Mystacocaride récolté sur la plage de Figueira, le 14 mars 1954. A l'examen ce spécimen semble se rapprocher plus de la f. biscayensis Delamare que de la forme type de Derocheilocars Remanei Delamare et Chappuis. La papille supra anale est identique à ce que figure NOODT (1954) pour la forme d'Afrique du Sud, en ce sens qu'elle possède quelques petites spinulations secondaires. Un examen des diverses préparations de la forme type de plusieurs stations méditerranéennes, nous permet d'affirmer que ces petites épines sont inconstantes. Quoiqu'il en soit, la constatation de la présence de la f. biscayensis au Portugal est intéressante mais il est difficile de s'appuyer sur une seule observation! Signalons que les exemplaires que nous possédons de la côte atlantique d'Afrique, tant du Sénégal que de l'Angola, appartiennent à la forme type.
DE
BOU
TTEVILLE (CL), 1954. - Révision des Mystacocarides du genre Derocheilocaris Pennak et Zinn. Vie et Milieu, IV, 3, p. 459-469. NOODT (Wolfram), 1954. - Crustacea Mystacocarida von Sùd-Afrika. Kieler Meeresforsch., X, 2, p. 243-246.
C. DELAMARE DEBOUTTEVILLE DELAMARE SUR UNE RÉCOLTE DE MITRA ZONATA MARRYAT
Au cours de dragages effectués par le « Professeur LACAZE-DUTHIERS » en 1954, un exemplaire vivant de Mitra zonata a été récolté le 24 juin 45 mètres de profondeur aux abords S-W des île s Masina, dans la région du Cap Creus. Ce superbe échantillon mesure 70 mm de hauteur. Il convenait de signaler la capture de cette espèce authentiquement méditerranéenne malgré son aspect exotique, en raison de sa grande - 111 - rareté, surtout à l'état vivant. VAYSSIÈRE (I) l'a bien étudiée du point de vue anatomique. Elle est encore aujourd'hui selon l'expression de PETIT DE LA SAUSSEYE, 1869, «le rêve en même temps que le désespoir de l'amateur ». VATOVA en 1943 (2) a publié au sujet de Mitra zonata une note très complète mentionnant les exemplaires connus, précisant ainsi sa répartition. En ce qui concerne les côtes méditerranéennes françaises, elle a surtout été trouvée entre Marseille et Monaco, toujours dans des fonds compris entre 30 et 80 mètres. SPIDERS FROM BANYULS
1. Amaurobius erberi (Keys) A female in cork-oak wood between the small hill behind Hôtel Miramar and the sportsfield. 6/5-53. 2. Dictyna latens (F)?. A maie at the « water-reservoir ». 8/5. 3. Dictyna viridissima E.S. (subsp. vulnerata). A young female at the « water-reservoir ». 4. Eresus niger (Pel.). A female in the hills south-east of Banyuls 250 m. a. s. 7/7. 5. Filistata insidiatrix (Forsk.). Two females in the same locality as nr. 1.
1901. - Étude zoologique et anatomique de la Mitra zonata Marryat. Journ. Conchyliologie, 49, p. 77. VATOVA, 1943. - Sulla Mitra zonata Marryat e sulla dua distribusione geographica nel Mediterranea. Thalassia, V, 8). LOCARD, 1897. - Mollusques Testacés. Exp. Se. du Travailleur et Talisman. 6. Dysdera erythrina (Walck.). A female from locality as nr. t. 7. Dysdera cribrata E. S. A maie in the hills 7/5. 8. Segestria senoculata (L.). A female in the hills 7/5. 9. Drassodes lapidosus (Walck.). A maie in the hills 7/5, and a maie near the Biological station 4/5. 10. Drassodes severus (CK). A female in the hills 7/5. 11. Zelotes thorelli E.S. 5 females in the hills 7/5. 12. Zelotes pedestris (CLK)? A maie in the hills 7/5. 13. Pterotricha exornata (CK). A maie in locality as nr. 1. 14. Gnaphosa tigrina ES? A maie in the hills 7/5. 15. Uroctea durandi (Latr.). A young female in a dry place near the « water-reservoir », 8/5. 16. Pholcus opilionides (Schr.). A young female in the hills 7/5. 17. Enoplognatha mandibularis (Luc.)? A female on sandy shores near Barcarès 5/5. 18. Mangora acalpha (Walck). Two young females in locality as nr. 1. A young female near the biological station 4/5. 19. Aranea redii (Scop.). A female near the biological station 4/5. 20. Aranea cucurbitina (CL). Young maies and females from the hills 7/5, and young spécimens from near the biological station 4/5. 21. Cyclosa conica (PalL). A young spécimen from the hills 7/5. 22. Thomisus onustus (Walck). A young female from locality as nr. 1. and another one from the hills 7/5. 23. Heriaeus hirtus (Latr.). A female from the « water-reservoir » 8/5, and two young spécimens from locality as nr. 1. 24. Oxyptila blitea ES. A female from sandy shores near Barcarès 25. Synaema globosum (F.). A maie near the « water-reservoir », and a female and some young spécimens from locality as nr. 1. 26. Xysticus ferrugineus M. An adult and a young female from locality as nr. 1. 27. Xysticus kochi Th. A maie from the « water-reservoir ». 28. Philodromus ruficapillus ES. A female from locality as nr. 1. 29. Philodromus pulchellus Lucas. A maie from the same locality. 30. Thanatus vulgaris ES. A maie, a female and young ones from sandy shores near Barcarès 5/5. 31. Thanatus mundus Cambr.? A maie from locality as nr. t. 32. Phrurolithus flavitarsis (Luc). Two maies from locality as nr. 1. and a maie from the « Water-reservoir » 8/5. 33. Pisaura mirabilis (CL). 2 young females from locality as nr. A female from the hills 7/5. 36. Xerolycosa nemoralis (Westr.). « water-reservoir » 8/5. 37. ArctosaperitaÇLatv.). A maie from sandy shores near Barcarès. 38. as nr. 1. Hogna radiata (Latr.). 39. Heliophanus viriatus ES. 40. Euophrys petrensis CK. 41. Icius hamatus CK. A young female from the Young spécimens from locality Maies near the biological station 4/5^ Two females in locality as nr. 15. A female from locality as nr. 1. 42. Phlegra fasciata (H.). A female from locality as nr. 1, and another from sandy shores near Barcarès. 43. Aelurillus W-insignatus (Cl). 44. Devade hirsutissima ES. A maie from locality as nr. 1. From sandy shores near Barcarès. HANS TAMBS-LYCHE. DOCUMENTS FAUNISTIQUES SUR LE RAVIN DE POUADE
Le Ravin de Pouade est un vallon situé à 7 kilomètres au sud-ouest de Banyuls-sur-Mer, dont la flore et le microclimat ont été bien décrits par DAVY DE VIRVILLE (I). D'octobre à décembre 1949, nous avons eu l'occasion de nous rendre une dizaine de fois dans cette localité où nous avons récolté un certain nombre d'animaux (essentiellement des arthropodes) dont on trouvera la liste partielle ci-dessous. Ces espèces ont été recueillies soit dans les vasques du « torrent » de Pouade qui, la plus grande partie de l'année, est réduit à un petit ruisseler, soit dans la végétation ripicole des bords de celui-ci, ou enfin dans la garrigue avoisinante. Des mesures concernant la température de l'air, et de l'eau des vasques furent prises lors des visites dans cette station et donnent les cluffres suivants (en 0 C).
e Octobre 19 29
21°
-
16° 20°
190
12°
7 Air Eau
25° 22° 5 8°
Décembre 10 19 24 5 26
21° 17° 13° 13° 9°5 l6° 14° 10° 8°
- Voici la liste partielle du matériel zoologique récolté et déterminé, une importante partie de celui-ci devant être soumis à divers spécialistes : INSECTES Collemboles (C. Delamare Deboutteville det.). Un échantillon de terre, graviers et cailloux d'un volume d'environ 2.500 cm3 pris au bord d'une vasque le 19 novembre 1949 placé dans un entonnoir Berlese permit la récolte des espèces suivantes : Isotomurus palustris f. maculata Schâffer (1 ex.). Isotomurus palustris f. trifasciata (Nicolet), (5. ex.). Dicyrtoma fusca L. (1 ex.). Onychiurus armatus Tullb. ex.). Folsomia sp. (1 ex.). Isotomina thermophila (Axelson, 2 ex.). Hémiptères (J. Carayon det.). Chorosoma schillingii (Schill.) (Capside) fauchage des arbustes, 7 octobre 1949. Plinthisius minutissimus Fieb. (Coréide) détritus du torrent desséchés, 5 décembre 1949. Velia rivulorum F. (Gerride), commun dans les vasques. Coléoptères. Penetretus rufipennis Dej. (Carabique) élément typique de la faune hygropétrique (2), 14 octobre 1949; mousse humide, 19 octobre 1949. Paussus favieri Fairm (Pausside), assez commun dans les fourmilières de Pheidole pallidula Nyl. de la garrigue (3), 10 novembre 1949. Meladema coriaceum Cast. ; Deronectes hispanicus Rosenh. ; Stictonectes epipleuricus Seidl. (Dytiscides) ; vasque au centre d'un petit « cirque » 19 octobre 1949. Stenus guttula Mùll (Staphylinide), mousse humide, 19 octobre 1949 et 26 décembre 1949 (J. Jarrige det.). Thanatophilus rugosus L. (Silphide), piège avec charogne, 29 octobre 1949. Vie et Milieu, I, p. (3) THÉODORIDÈS - La flore et le climat d'un vallon des Albères, pl. hors texte. - A propos de l'écologie de Penetretus rufipennis Dej. 1934. 46, 129-157, 7 (J.), 255. 1950. région de Banyuls. Ibid. Paussus favieri Fairm. (Col. Paussidae) dans la 97-98.
PARASITES INTESTINAUX DE HYDROPHILUS (HYDROUS) PISTACEUS LAP. (COL. HYDROPHILIDAE) OBSERVÉS A BANYULS
Un exemplaire de Hydrophilus (Hydrous) pistaceus Lap. recueilli au Barrage de la Baillaurie près de Banyuls, le 9 mai 1956, hébergeait dans son intestin postérieur les parasites suivants : 1. Trichella Eccrinale). hydrophilorum Léger et Duboscq (Trichomycète - 116 - Cette espèce a été décrite par LÉGER et DUBOSCQ (1916) chez divers Hydrophilides : Hydrophilus flavipes Stev., H. (Hydrous) piceus L. et H. (H.). pistaceus Lap. 2. Nyctotherus gyoeryanus (Claparède et Lachmann) (Cilié Hétérotriche). Ce Protiste très bien étudié par F. STEIN (1867) a été revu par P. GRASSÉ (1928) qui l'a observé en abondance chez les H. (H.) pistaceus du Languedoc. C'est probablement également cette espèce que GALEB (1878, p. 302) signale et figure (Pl. XXV, fig. 7.) comme provenant de l'intestin de Hydrophilus caraboides L. 3. Toddinema hydrophili (Galeb 1878) L. Travassos 1954 (Nâmatode Oxyuride, Thelastomatidae). L. TRAVASSOS a créé (in litt.) le genre Toddinema (= Toddia Travassos 1954, ce dernier genre étant préemployé) pour des Thelastomatidae parasites d'Hydrophilides, à cuticule nettement annelée, le premier bourrelet cuticulaire séparant la tête du reste du corps étant assez développé, et dont la vulve presque médiane ne présente pas de saillie de sa lèvre antérieure; de plus, les oeufs ellipsoïdaux sont recouverts d'un filament spiralé comme chez d'autres Thelastomatidae d'Hydrophilides (Pseudonymus, Zonothrix, Stegonema, Galebiella). L. TRAVASSOS (op. cit.) place dans ce genre le Nématode de l'intestin de Hydrophilus (Hydrous) piceus L. décrit par GALEB (1878) sous le nom de Oxyuris (Helicothrix) hydrophili. L'espèce observée chez H. (H.) pistaceus de Bany s était représentée par plusieurs femelles et appartient sûrement au genre Toddinema par les caractères suivants : i° Présence d'un bourrelet cuticulaire d'environ 50 \L de large sur 15 [x de haut séparant la tête du reste du corps. 20 Absence de saillie des lèvres vulvaires. 30 OEufs utérins d'environ 75 \x. x 50 (i recouverts d'un filament spiralé. La seule espèce de ce genre signalée chez des Hydrophilides de France est Toddinema hydrophili (Galeb), les autres espèces provenant des États-Unis ou du Brésil. Cependant, comme le fait remarquer à juste raison L. TRAVASSOS (op. cit. p. 150), la description de GALEB est trop insuffisante (cet auteur ne donnant pas de mesures détaillées") pour permettre une comparaison valable de son espèce avec les autres actuellement connues. Néanmoins, T. hydrophili ayant été trouvé chez un Hydrophile de la faune française et sa morphologie générale concordant avec celle de nos exemplaires, c'est à cette espèce que nous rapportons provisoirement l'Oxyuride pour lequel H. (H.) pistaceus est un hôte inédit.
Jean THÉODORIDÈS. - 117 - TRAVAUX CITÉS (O.), 1878. - Recherches sur les Entozoaires des Insectes. CARABES ESPAGNOLS PARASITÉS PAR DES DIPTÈRES TACHINAIRES
J'ai donné en 1953 (1) une liste de Carabes français parasités par des Tachinaires, avec indications géographiques précises. Des recherches entomologiques en Espagne ne permettent de compléter cette liste de nouvelles espèces et de nouvelles localités. 1. Hadrocarabus problematicus Herbst. Province de Gerona : Viladrau (700 m), 1 ex. 2. Hadrocarabus macrocephalus Fabr. Province d'Oviedo : Lago del Valle (1750 m-1850 m), massif des Picos Alvos, 2 ex. ; Lago de Enol (1200 m), massif des Picos de Europa, 1 ex. Province de Léon : Villaneuva (1400 m), au S.-E. du Puerto de Pajares, 1 ex. 3. Megodontus purpurascens Fabr. Province de Gerona : San Pablo de Seguries (900 m), 1 ex. 4. Chrysotribax rutilons Dey. Province de Gerona : Puerto de Santiagosa (1000 m), 1 ex.; San Pablo de Seguries (900 m), 2 ex. (1) 1953, PuiSSÉGUR (C). - Sur quelques parasites de Carabes. VEntomologiste, IX, 4, p. 65-67. - 118 - 5. Chrysocarabus lineatus Dej. Province de Santander : Puerto de Piedrasluengas (1250 m), 1 ex. Chrysocarabus limatus Dej. ssp. basilicus Chevr. Province de Navarra : Sierra de Andia (800 m), 2 ex. Province de Burgos : Sierra Mencilla (1400 m), 1 ex. L'état des parasites, réduits aux tonnelets vides et desséchés des Tachinaires, n'a pas permis leur détermination. Il est probable qu'il s'agit, comme en France, de Viviania cinera Fall. C. PUISSÉGUR (1) LYCHNIA ARDEAE MACQUART (DIPT. HIPPOBOSCIDAE), PARASITE DU HÉRON POURPRÉ ET DU BIHOREAU EN CAMARGUE
(1) Grâce à la bienveillance du Docteur Luc HOFFMANN et de Monsieur Max MULLER j'ai pu examiner plusieurs spécimens d'un Diptère Hippoboscide, le Lychnia ardeae Macquart, pris sur Héron pourpré (Ardea purpurea) et Héron Bihoreau (Nycticorax nycticorax). Ces Oiseaux sont capturés à la Station Biologique de la Tour du Valat, en Camargue, en vue du baguement. Ma détermination a été confirmée par M. H. OLDROYD, du Natural History Muséum de Londres. Ces mouches sont trouvées régulièrement sur les Hérons pourprés et Bihoreaux capturés à la Tour du Valat. En juillet 1956, 18 hérons pourprés et 2 Bihoreaux spécialement examinés portaient chacun des mouches. Il semble que les Oiseaux jeunes sont plus souvent parasités que les adultes, ainsi que cela se rencontre chez d'autres groupes d'Oiseaux parasités par des espèces différentes d'Hippoboscides. Évidemment il y a très peu de remarques au sujet de Lychnia ardeae en Europe, probablement parce que cette espèce n'a été guère cherchée. En Grande-Bretagne, elle a été signalée au moins une fois sur un Héron pourpre en migration, mais jamais sur le Héron cendré (Ardea cinerea). Pendant 5 années, en Angleterre, j'ai examiné plus de 600 poussins de Hérons cendrés, mais je n'ai jamais trouvé de Lychnia ardeae. De même, (1) Remis le 25 septembre 1956. - 119 - en Hollande, j'ai examiné environ 100 poussins de Hérons pourprés sans trouver trace de cette mouche. De cette apparente absence en Grande-Bretagne et en Hollande, semblerait que cette mouche possède une distribution plutôt méridionale en Europe. Il serait intéressant de noter jusqu'où remonte sa limite nord. Lychnia ardae est maintenant considérée comme cospécifique de l'espèce du Nouveau Monde L.albipennis Say, et BEQUAERT (1953, Entomologica Americana, 33 : 252) donne la liste suivante des hôtes : Ardeidae (Ardea, Butorides, Egretta, Florida, Bubulcus, Nycticorax, Ardeola, Ixobrychus, Botaurus, Leucophoyx, Casmerodius, Nyctanassa, Hydranassa, Dichromanassa, Tigrisoma et Cochlearius) ; Threskiornithidae (Guara, Mesembrinibis et Thertistcus) ; Ciconidae (Mycteria et Ibis), et il a été pris, probablement égaré, sur des Gruiformes (Gallinula, Porzana, Porphyrula et Eurypyga) et des Charadriiformes (Arctopilornis, Tringa et Xiphidiopterus) ainsi qu'exceptionnellement sur Larus (Mouettes et Goélands), Strygiformes et Oiseaux de proie diurnes. Cette mouche est donc répandue sur les Hérons et Oiseaux voisins, et davantage d'informations sur sa distribution en Europe serait de grand intérêt. D.-F. Ed-vard.
| 46,732
|
9923a6bb0bab682a85e4f98f6167e18e_17
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,008
|
Taux de change effectifs nominaux
|
None
|
French
|
Spoken
| 8,136
| 18,541
|
4.3
5.8
6.5
6.7
6.8
6.9
7.4
8.3
10.4
11.1
11.5
11.5
11.6
Turquie
1.0
2.2 |
4.2
5.2
5.4
5.6
5.4
3.3
3.6 |
6.6
7.4
7.6
7.7
7.6
Moyenne OCDE
4.9
5.1
5.7
6.1
6.4
6.4
6.4
6.6
7.0
7.9
8.5
8.8
8.9
9.0
1 2 http://dx.doi.org/10.1787/275270388145
Dépenses de santé
En pourcentage du PIB, 2005 ou dernière année disponible
Publiques
Privées
16
14
12
10
8
6
4
2
Co
ré
Po e
log
Ré
n
pu
bl Me e
Ré ique xiqu
pu
e
s
bli lov
qu aq
e t ue
ch
èq
Fin ue
lan
de
Irla
nd
T e
Lu urqu
xe
m ie
bo
ur
g
Ja
po
H n
Ro ong
ya
um rie
eU
Es ni
pa
gn
e
Mo
ye Ita
l
No nn
ie
uv e O
ell
e- CDE
Zé
la
Da nde
ne
m
a
No rk
rv
èg
e
Su
èd
Pa e
ys
-B
Au as
str
ali
Isl e
an
d
Ca e
na
da
Gr
èc
Au e
tri
ch
Po e
rtu
g
Be al
lgi
q
All ue
em
ag
ne
Fr
an
ce
Su
i
s
Ét
a t se
sUn
is
0
1 2 http://dx.doi.org/10.1787/388847353223
PANORAMA DES STATISTIQUES DE L’OCDE 2008 – ISBN 978-92-64-04055-7 – © OCDE 2008
211
FINANCES PUBLIQUES • DÉPENSES PUBLIQUES
DÉPENSES SOCIALES
Les dépenses sociales en pourcentage du PIB sont un
indicateur du degré auquel les pouvoirs publics assument la
responsabilité du soutien du niveau de vie des groupes
désavantagés ou vulnérables.
Définition
Les dépenses sociales publiques comprennent les
prestations en espèces, la fourniture directe « en nature » de
biens et de services, et les allégements fiscaux à des fins
sociales. Pour être considérées comme « sociales », les
Tendances à long terme
En 2003, en moyenne, les dépenses sociales publiques
représentent 21 % du PIB, même si l’on observe de fortes
différences d’un pays à l’autre : environ 31 % en Suède contre
5-6 % au Mexique et en Corée.
Les évolutions des dépenses sociales brutes au fil du temps sont
également significatives. Depuis 80, la part moyenne des
dépenses sociales publiques brut dans le PIB a augmenté, passant
de 16 à 21 %, en 2003, dans 28 pays de l’OCDE. Les situations
varient selon les pays de l’OCDE, mais les ratios moyens dépenses
sociales publiques/PIB ont particulièrement augmenté au début
des années 80, au début des années 90, puis de nouveau au début
de ce millénaire, le ratio moyen dépenses publiques/PIB ayant
progressé de 1 % de 2000 à 2003. Entre moments charnières
au début de chaque décennie, les ratios dépenses/PIB n’ont guère
varié ; au cours des années 80, le ratio moyen dépenses sociales
publiques/PIB a oscillé autour de valeurs tout juste inférieures
à 20 % du PIB, tandis que dans les années 90, il a eu tendance
à diminuer après la récession économique du début des années
90, mais il s’est quand même maintenu au-dessus de 20 % du PIB.
Il est commode de diviser les dépenses en fonction de leur finalité
sociale afin de mieux analyser l’orientation des politiques et les
tendances. D’une manière générale, les trois catégories de
transferts sociaux les plus importantes sont les pensions (en
moyenne 8 % du PIB), la santé (6 %) et les transferts de revenu
au profit de la population en âge de travailler (5 %). Les dépenses
publiques au titre d’autres services sociaux ne dépassent 5 %
du PIB que dans les pays nordiques, où l’intervention publique en
fourniture de services aux personnes âgées, aux handicapés
et aux familles est la plus développée.
Les aides publiques aux familles ayant des enfants dans
l’ensemble de la zone de l’OCDE représentent près de 2 % du PIB
en moyenne, mais ce montant a augmenté dans la plupart des
pays depuis 80. Le soutien à la famille excède 3 % du PIB dans les
pays nordiques et en Autriche, ces pays possédant le système
public le plus complet d’indemnités pour enfants, de congés
payés et dispositifs de gardes d’enfants. De plus, les pouvoirs
publics peuvent également aider les familles par le biais du
système fiscal ; à titre d’exemple, on mentionnera le « quotient
familial » en France et le « fractionnement des revenus »
en Allemagne.
Les dépenses d’assurances sociales liées à l’incapacité de
travailler (prestations pour invalidité, maladie et accident
du travail) ont diminué dans certains pays tandis qu’elles ont
augmenté dans d’autres depuis 80. Des baisses particulièrement
importantes ont été constatées en Belgique et aux Pays-Bas.
212
prestations doivent viser un ou plusieurs objectifs sociaux.
Les prestations peuvent être ciblées sur les ménages à faible
revenu, mais elles peuvent aussi concerner les membres
d’un ménage qui sont âgés, handicapés, malades, chômeurs
ou jeunes. Les programmes régissant la fourniture de
prestations sociales doivent comporter : a) une
redistribution des ressources entre les ménages, ou b) une
participation obligatoire. Les prestations sociales sont
considérées comme publiques lorsque les administrations
publiques (c’est-à-dire les administrations centrales, des
états fédérés et locales, y compris les caisses de sécurité
sociale) contrôlent les flux financiers correspondants. Les
dépenses présentées ici se réfèrent uniquement aux
prestations sociales publiques et excluent ces mêmes
prestations fournies par des organisations caritatives
privées.
Comparabilité
Aux fins de comparaison internationale, l’indicateur d’aide
sociale le plus couramment utilisé est celui des dépenses
sociales publiques brutes (avant impôt) rapportées au PIB.
Des problèmes de mesure se posent, particulièrement en ce
qui concerne les dépenses des niveaux d’administration
inférieurs, qui peuvent être sous-estimées dans certains
pays. Comme indiqué précédemment, les prestations
sociales fournies par des organisations caritatives privées
sont exclues.
Source
• Base de données de l’OCDE sur les dépenses sociales.
Pour en savoir plus
Publications analytiques
• Adema, W. et M. Ladaique (2005), Net Social Expenditure,
2005 Edition: More Comprehensive Measures of Social Support,
Questions sociales, emplois et migrations – Documents de
travail de l’OCDE, n° 29, OCDE, Paris.
• OCDE (2003), Transformer le handicap en capacité : Promouvoir
le travail et la sécurité des revenus des personnes handicapées,
OCDE, Paris.
• OCDE (2007), Petite enfance, grands défis II : Éducation et
structures d’accueil, OCDE, Paris.
• OCDE (2007), Panorama de la société : Les indicateurs sociaux
de l’OCDE Édition 2006, OCDE, Paris.
• OCDE (2002-2007), Bébés et employeurs – Comment réconcilier
travail et vie de famille, OCDE, Paris.
Sites Internet
• OCDE Statistiques sur la protection sociale, www.oecd.org/
statistics/social.
PANORAMA DES STATISTIQUES DE L’OCDE 2008 – ISBN 978-92-64-04055-7 – © OCDE 2008
FINANCES PUBLIQUES • DÉPENSES PUBLIQUES
DÉPENSES SOCIALES
Dépenses sociales publiques
En pourcentage du PIB
1990
1991
1992
1993
1994
1995
1996
1997
1998
1999
2000
2001
2002
2003
Allemagne
22.5
23.7
25.7
26.1
26.1
26.6
27.1
26.4
26.3
26.4
26.3
26.3
27.0
27.3
Australie
14.1
15.2
16.2
16.5
16.2
17.1
17.2
17.0
17.0
16.9
17.9
17.4
17.5
17.9
26.1
Autriche
23.7
23.9
24.5
26.0
26.6
26.6
26.6
25.5
25.4
25.6
25.3
25.4
25.8
Belgique
25.0
25.8
25.9
27.0
26.5
26.4
26.9
25.8
26.1
25.9
25.3
25.7
26.1
26.5
Canada
18.4
20.6
21.3
21.2
20.2
19.2
18.4
17.7
18.0
17.0
16.7
17.3
17.3
17.3
Corée
3.0
2.8
3.1
3.2
3.2
3.5
3.6
3.9
5.5
6.3
5.1
5.5
5.4
5.7
Danemark
25.5
26.3
26.8
28.6
29.4
28.9
28.2
27.2
27.0
26.8
25.8
26.4
26.9
27.6
Espagne
20.0
20.7
21.8
23.2
22.1
21.5
21.4
20.8
20.7
20.4
20.4
20.2
20.2
20.3
États-Unis
13.4
14.4
15.1
15.3
15.3
15.4
15.2
14.9
14.8
14.6
14.6
15.2
16.0
16.2
Finlande
24.5
29.6
33.6
29.9
29.2
27.4
27.1
25.2
23.2
22.8
21.3
21.4
21.9
22.5
France
25.3
26.0
26.6
28.1
28.1
28.3
28.6
28.5
28.7
28.8
27.6
27.5
27.9
28.7
Grèce
18.6
18.0
18.1
19.1
19.1
19.3
20.0
20.0
20.6
21.4
21.3
22.3
21.3
21.3
Hongrie
..
..
..
..
..
..
..
..
..
21.6
20.6
20.7
21.9
22.7
Irlande
15.5
16.3
17.1
17.1
16.8
16.3
15.4
14.3
13.4
14.2
13.6
14.4
15.5
15.9
Islande
14.0
14.5
15.0
15.3
15.2
15.5
15.2
14.9
14.9
15.4
15.3
15.6
17.3
18.7
Italie
19.9
20.1
20.7
20.9
20.7
19.8
22.0
22.7
23.0
23.3
23.2
23.3
23.8
24.2
Japon
11.2
11.4
11.9
12.5
13.1
13.9
14.1
14.2
14.9
15.4
16.1
16.8
17.5
17.7
Luxembourg
21.9
22.3
22.7
23.1
22.9
23.8
23.8
22.5
21.6
21.7
20.4
19.8
21.6
22.2
Mexique
3.6
4.0
4.4
4.7
5.2
4.7
4.5
4.5
5.0
5.8
5.8
5.9
6.3
6.8
Norvège
22.6
23.5
24.4
24.3
24.0
23.5
22.7
22.2
24.5
24.6
22.2
23.2
24.6
25.1
18.0
Nouvelle-Zélande
21.8
22.2
22.0
20.3
19.5
19.0
18.9
19.9
20.0
19.3
19.1
18.4
18.4
Pays-Bas
24.4
24.4
24.9
25.1
23.6
22.8
21.8
21.2
20.6
19.9
19.3
19.5
19.9
20.7
Pologne
15.1
21.5
25.5
24.9
23.8
23.1
23.3
22.7
21.5
22.2
21.2
22.4
23.0
22.9
Portugal
23.5
13.7
14.7
15.5
17.0
17.2
18.1
18.7
18.6
19.0
19.5
20.2
20.9
22.2
République slovaque
..
..
..
..
..
18.9
18.7
18.2
18.2
18.8
18.1
17.8
17.9
17.3
République tchèque
16.0
17.3
17.6
18.1
18.1
18.2
18.3
19.1
19.5
20.0
20.3
20.4
21.0
21.1
Royaume-Uni
17.2
18.6
20.3
21.0
20.5
20.4
20.1
19.2
19.3
19.0
19.1
20.1
20.1
20.6
Suède
30.5
32.1
35.0
36.2
34.9
32.5
32.1
30.7
30.5
30.1
28.8
29.3
30.4
31.3
20.5
Suisse
13.5
14.5
16.0
17.4
17.3
17.5
18.1
18.8
19.0
18.8
18.0
18.7
19.4
Turquie
7.6
8.2
8.5
8.3
7.9
7.5
9.7
10.8
11.1
13.2
..
..
..
..
Moyenne UE15
21.9
22.8
24.0
24.6
24.2
23.9
24.0
23.2
23.0
23.0
22.5
22.8
23.4
23.9
Moyenne OCDE
17.9
19.0
20.0
20.4
20.1
19.9
20.0
19.6
19.7
19.8
19.4
19.7
20.3
20.7
1 2 http://dx.doi.org/10.1787/275342777042
Dépenses sociales publiques
En pourcentage du PIB
1993
2003
40
36
32
28
24
20
16
12
8
4
Co
r
Me ée
xiq
u
Tu e
rq
uie
Irla
Ét nde
at
sRé
Un
pu
bli C is
qu an
e s ad
lov a
aq
ue
Ja
po
No
uv Aus n
ell tra
e- lie
Zé
lan
d
Isl e
an
Es de
pa
gn
e
Ro Su
ya iss
um e
eU
M Pa ni
Ré oye ys-B
pu nn as
bli e O
qu C
e t DE
ch
èq
ue
Lu Grè
xe ce
m
bo
u
Fin rg
lan
d
Ho e
ng
r
Po ie
log
n
Mo Po e
ye rtug
nn al
eU
E1
5
Ita
l
i
No e
rv
è
Slo ge
vé
n
Au ie
tri
ch
Be e
lg
All iqu
em e
a
Da gne
ne
m
ar
Fr k
an
ce
Su
èd
e
0
1 2 http://dx.doi.org/10.1787/388867004287
PANORAMA DES STATISTIQUES DE L’OCDE 2008 – ISBN 978-92-64-04055-7 – © OCDE 2008
213
FINANCES PUBLIQUES • DÉPENSES PUBLIQUES
DÉPENSES DE MAINTIEN DE L’ORDRE ET DE DÉFENSE
Deux des tâches essentielles qui incombent à un
gouvernement consistent à protéger l’État d’une agression
extérieure et à maintenir l’ordre public à l’intérieur de ses
frontières. Au cours de la période considérée ici, la chute de
l’Union soviétique s’est traduite par une réduction des
dépenses de défense dans de nombreux pays de l’OCDE,
alors que les attaques terroristes aux États-Unis ont
débouché sur des augmentations des dépenses publiques
consacrées à la sécurité intérieure. Les chiffres présentés ici
reflètent ces évolutions divergentes.
Comparabilité
Les données sont tirées des comptes nationaux et ont été
classées conformément à la Classification des fonctions des
administrations publiques (COFOG). D’une manière
générale, les données sont sensiblement comparables.
Définition
Le tableau est tiré des comptes nationaux et les données
sont conformes aux définitions du Système de comptabilité
nationale de 1993. Les dépenses couvrent toutes les dépenses
aussi bien courantes qu’en capital.
Le maintien de l’ordre englobe les forces de police, les
services de renseignements, les prisons et autres
établissements correctionnels, le système judiciaire, et les
ministères des Affaires intérieures. Il convient de noter que
les chiffres présentés ici ne comprennent pas les coûts des
dispositifs de sécurité rendus obligatoires par les pouvoirs
publics dans les aéroports, ports et autres postes frontaliers.
Bien entendu, ils ne comprennent pas non plus les mesures
de sécurité pour les centres commerciaux, les matchs de
football, les concerts et autres rassemblements publics, qui
ont certainement augmenté ces dernières années.
Tendances à long terme
Dans le total, les parts des deux composantes – maintien de
l’ordre et défense – diffèrent beaucoup selon les pays, la part des
dépenses de défense étant élevée aux États-Unis, en Corée, en
Norvège, au Danemark, en France et en Suède et celle des
dépenses de maintien de l’ordre se situant à un niveau élevé en
Islande, au Luxembourg, en Irlande, en Espagne et en Belgique. En
moyenne, la part des dépenses de maintien de l’ordre progresse
généralement plus vite que celle des dépenses de défense et, en
moyenne, représente aujourd’hui plus de la moitié du total pour
les pays pris en compte dans le tableau.
En 2005 – dernière année pour laquelle la plupart des pays sont en
mesure de fournir des données – les dépenses étaient les plus
élevées aux États-Unis et au Royaume-Uni et les plus faibles au
Luxembourg, en Islande et en Irlande. Dans la majorité des pays,
la part des dépenses consacrées à la défense et au maintien de
l’ordre dans le PIB est en recul depuis 1995, la baisse étant
particulièrement importante en Norvège, en Suède, en Irlande et
en France.
Source
• OCDE (2007), Comptes nationaux des pays de l’OCDE, OCDE,
Paris.
Pour en savoir plus
Publications analytiques
• OCDE (2004), L’économie de la sécurité, OCDE, Paris.
Publications méthodologiques
• ONU, OCDE, FMI, Banque mondiale, Eurostat (éd.) (1993),
Le système de comptabilité nationale 1993, Nations unies,
Genève, Paragraphe XVIII.9, http://unstats.un.org/unsd/
sna1993.
Bases de données en ligne
• Comptes nationaux annuels.
214
PANORAMA DES STATISTIQUES DE L’OCDE 2008 – ISBN 978-92-64-04055-7 – © OCDE 2008
FINANCES PUBLIQUES • DÉPENSES PUBLIQUES
DÉPENSES DE MAINTIEN DE L’ORDRE ET DE DÉFENSE
Dépenses au titre de la justice, de l’ordre public et de la défense
En pourcentage du PIB
1993
1994
1995
1996
1997
1998
1999
2000
2001
2002
2003
2004
2005
Allemagne
3.2
3.1
3.0
3.0
2.9
2.9
2.9
2.8
2.8
2.9
2.8
2.8
2.7
..
Autriche
..
..
2.5
2.5
2.5
2.4
2.4
2.4
2.3
2.3
2.3
2.3
2.3
2.3
Belgique
3.0
3.0
2.9
2.9
2.8
2.8
2.8
2.7
2.8
2.9
2.9
2.8
2.7
..
Corée
..
..
4.1
4.2
4.1
4.2
4.0
3.9
3.8
3.8
3.8
3.8
4.1
..
2.9
2.9
2.8
2.7
2.7
2.7
2.6
2.5
2.6
2.6
2.6
2.7
2.6
2.6
Danemark
2006
Espagne
..
..
..
..
..
..
3.0
2.9
3.0
3.0
2.9
2.9
2.9
..
États-Unis
6.5
6.1
5.9
5.7
5.4
5.3
5.2
5.2
5.4
5.8
6.1
6.3
6.3
6.4
Finlande
3.5
3.7
3.5
3.6
3.4
3.2
3.0
2.9
2.8
2.7
2.9
3.1
3.2
..
France
..
..
3.8
3.8
3.7
3.5
3.4
3.2
3.3
3.4
3.3
3.3
3.3
..
Hongrie
..
..
..
..
..
..
..
..
3.2
3.8
3.4
3.4
3.3
..
Irlande
3.1
3.0
2.7
2.6
2.5
2.5
2.2
2.1
2.1
2.0
1.9
2.1
2.1
..
1.5
Islande
..
..
..
..
1.6
1.5
1.5
1.5
1.5
1.5
1.6
1.5
1.5
Italie
3.5
3.4
3.2
3.2
3.1
3.1
3.1
3.1
3.0
3.2
3.4
3.4
3.5
..
Japon
..
..
..
2.3
2.3
2.3
2.4
2.4
2.4
2.4
2.4
2.4
2.3
..
Luxembourg
1.3
1.3
1.3
1.3
1.4
1.3
1.1
1.1
1.2
1.3
1.3
1.3
1.3
1.2
Norvège
3.9
3.9
3.5
3.4
3.3
3.4
3.3
2.9
2.9
3.2
3.1
2.9
2.6
..
..
..
..
..
..
..
..
..
..
..
2.9
2.7
3.0
..
Nouvelle-Zélande
Pays-Bas
..
..
3.3
3.3
3.1
3.0
3.1
3.0
3.1
3.2
3.3
3.2
3.1
..
Pologne
..
..
..
..
..
..
..
..
..
2.8
2.9
2.6
2.8
..
Portugal
..
..
..
..
..
..
3.2
3.3
3.2
3.3
3.4
3.4
3.4
..
République slovaque
..
..
..
..
..
..
..
..
..
..
3.7
2.3
..
..
République tchèque
Royaume-Uni
..
..
4.5
4.1
4.1
3.7
4.0
4.1
3.8
3.7
4.2
3.5
4.1
..
6.0
5.7 |
5.3
4.9
4.9
4.7
4.6
4.8
4.7
4.8
5.1
5.0
5.1
..
..
..
3.8
3.9
3.7
3.7
3.8
3.6
3.5
3.5
3.4
3.2
3.0
..
Suède
1 2 http://dx.doi.org/10.1787/275348465471
Dépenses au titre de la justice, de l’ordre public et de la défense
En pourcentage du PIB
1995
2005
7
6
5
4
3
2
1
aq
po
lov
es
qu
bli
pu
Ré
Da ue
ne
m
ar
k
No
rv
èg
e
Be
lgi
qu
e
All
em
ag
ne
Po
log
ne
Es
No
pa
uv
gn
ell
e
eZé
lan
de
Su
èd
e
Pa
ys
-B
as
Fin
lan
de
Fr
an
ce
Ho
ng
rie
Po
rtu
ga
l
Ré
pu
bli
Ita
qu
l
e t ie
ch
èq
ue
Ro Coré
ya
e
um
eUn
i
Ét
at
sUn
is
n
e
Ja
e
ch
de
nd
tri
Au
Irla
an
ur
bo
em
Lu
x
Isl
g
0
1 2 http://dx.doi.org/10.1787/388881814255
PANORAMA DES STATISTIQUES DE L’OCDE 2008 – ISBN 978-92-64-04055-7 – © OCDE 2008
215
FINANCES PUBLIQUES • SOUTIENS ET AIDES
ESTIMATIONS DU SOUTIEN À L’AGRICULTURE
FINANCES
Soutiens
etPUBLIQUES
aides
Au milieu des années 80, alors que démarraient les
négociations du cycle d’Uruguay sur le commerce agricole,
l’OCDE a entrepris de mesurer et de codifier le soutien dont
bénéficie le secteur agricole du fait des politiques qui
s’appliquent à ce dernier. Ce travail a abouti à l’élaboration
de l’estimation du soutien aux producteurs (ESP), indicateur
global recalculé périodiquement pour la totalité des 30 pays
membres de l’OCDE (l’Union européenne est considérée
comme une seule entité) et certains pays non membres. Cet
indicateur englobe les transferts budgétaires financés par
les contribuables, mais aussi la taxe implicite que font peser
sur les consommateurs les mesures agricoles qui
établissent les prix à un niveau supérieur à celui qui
prévaudrait en leur absence (mesures aux frontières et prix
administrés). Il est validé par les pays membres de l’OCDE et
considéré par beaucoup comme le seul indicateur existant
qui permette de procéder à des comparaisons entre pays.
Dans le tableau, les données ne sont pas disponibles
séparément pour les pays membres de l’UE. L’Autriche, la
Finlande et la Suède sont inclus dans l’UE15 depuis 1995. La
République tchèque, la Hongrie, la Pologne et la République
slovaque, ensemble avec les 6 pays de l’UE qui ne sont pas
membres de l’OCDE, sont inclus dans l’UE25 depuis 2004. Le
Total OCDE inclut la République tchèque, la Hongrie, la
Pologne et la République slovaque sur l’ensemble de la
période mais exclut les 6 pays membres de l’UE qui ne sont
pas membres de l’OCDE.
Estimation du soutien aux producteurs
agricoles pour certains pays
En pourcentage des recettes brutes de l’exploitation
Australie
Japon
Total UE25
États-Unis
Total OCDE
70
60
50
40
30
20
10
0
90
19
91
19
92
19
93
19
94
19
95
19
96
19
97
19
98
19
99
20
00
20
01
20
0
20 2
03
20
04
20
05
20
06
L’estimation du soutien aux producteurs (ESP) de l’OCDE est
un indicateur de la valeur monétaire annuelle des transferts
bruts des consommateurs et des contribuables aux
producteurs agricoles, au départ de l’exploitation, découlant
des mesures de soutien à l’agriculture, quels que soient leur
nature, leurs objectifs ou leurs incidences sur la production
ou le revenu agricoles. Il peut prendre la forme d’un
montant total, mais il est le plus souvent exprimé en
pourcentage des recettes agricoles brutes (ESP en
pourcentage). C’est cette mesure que l’on utilise ici.
19
Définition
1 2 http://dx.doi.org/10.1787/400031414376
Comparabilité
Des efforts permanents sont faits, dans le cadre de la
préparation du rapport annuel Suivi et évaluation, pour que
les politiques de l’ensemble des pays de l’OCDE soient
traitées de manière cohérente et exhaustive. Chaque année,
les estimations provisoires sont soumises à l’examen et à
l’approbation des représentants des pays membres de
l’OCDE, de même que les modifications apportées à la
méthodologie. L’ESP en pourcentage est le critère le plus
approprié et le plus utilisé pour comparer les niveaux de
soutien entre pays, produits et périodes.
Tendances à long terme
Les écarts entre les niveaux de soutien constatés dans les pays de
l’OCDE sont importants et se creusent. L’estimation du soutien
aux producteurs en pourcentage des recettes agricoles brutes
oscille entre quasiment zéro et 66 %. Ces disparités reflètent entre
autre, l’hétérogénéité des objectifs poursuivis, le recours à des
moyens d’action différents au fil du temps, et le rythme et la
portée de la réforme de la politique agricole, variables selon les
pays. Sur le long terme, le niveau du soutien apporté aux
producteurs a diminué dans la plupart des pays membres de
l’OCDE. Ainsi, l’ESP en pourcentage moyen était plus bas en
2004-2006 qu’en 1986-1988 (29 % contre 38 %) et il a baissé dans la
plupart des pays. Les modalités selon lesquelles le soutien est
dispensé ont quelque peu changé elles aussi : les formes dont on
sait qu’elles provoquent le plus de distorsions de la production et
des échanges occupent moins de place que par le passé (70 % du
soutien total pendant la période 2004-2006 contre plus de 90 %
pendant la période 1986-1988).
216
Source
• OCDE (2007), Les politiques agricoles des pays de l’OCDE : Suivi
et évaluation 2007, OCDE, Paris.
Pour en savoir plus
Publications analytiques
• OCDE (2001), Market Effects of Crop Support Measures, OCDE,
Paris.
• OCDE (2002), Agricultural Policies in China after WTO Accession,
OCDE, Paris.
• OCDE (2004), Analyse de la réforme de la PAC de 2003, OCDE,
Paris.
• OCDE (2005), Environmentally Harmful Subsidies: Challenges for
Reform, OCDE, Paris.
• OCDE (2006), Les politiques agricoles des pays de l’OCDE :
Panorama 2006, OCDE, Paris.
• OCDE (2006), Examen des politiques agricoles de l’OCDE, OCDE,
Paris.
• OCDE (2006), OECD Sustainable Development Studies – Subsidy
Reform and Sustainable Development: Economic, Environmental
and Social Aspects, OCDE, Paris.
• OCDE (2007), OECD Sustainable Development Studies: Subsidy
Reform and Sustainable Development: Political Economy Aspects,
OCDE, Paris.
• OCDE, FAO (2007), Perspectives agricoles de l’OCDE et de la FAO
2007-2016, OCDE, Paris.
Publications méthodologiques
• OCDE (2002), Mesure du soutien à l’agriculture et méthode
d’évaluation des politiques, OCDE, Paris.
PANORAMA DES STATISTIQUES DE L’OCDE 2008 – ISBN 978-92-64-04055-7 – © OCDE 2008
FINANCES PUBLIQUES • SOUTIENS ET AIDES
ESTIMATIONS DU SOUTIEN À L’AGRICULTURE
Estimation du soutien aux producteurs agricoles par pays
En pourcentage des recettes brutes de l’exploitation
1993
1994
1995
1996
1997
1998
1999
2000
2001
2002
2003
2004
2005
Australie
11.4
10.3
6.5
6.8
6.3
6.1
6.1
4.6
4.5
6.1
4.4
4.2
4.4
2006
5.5
Canada
24.3
20.7
19.6
15.6
14.4
16.8
18.0
19.9
15.9
21.2
24.5
20.8
21.9
22.7
Corée
72.7
73.0
72.0
64.1
63.0
56.5
65.4
66.5
60.7
64.4
61.0
62.7
63.1
63.3
États-Unis
17.7
14.7
10.3
13.4
13.8
21.8
25.6
23.5
22.3
18.5
15.0
16.3
15.7
11.1
Islande
64.7
61.5
59.1
57.1
59.2
70.5
71.6
66.7
63.0
66.5
65.7
64.8
67.4
66.4
Japon
57.6
62.7
62.2
57.8
54.3
58.3
60.1
59.8
56.5
57.4
57.6
55.9
54.9
53.3
Mexique
30.5
22.6
-4.9
4.9
14.4
17.2
14.4
20.4
15.3
23.1
18.5
10.8
14.3
17.4
64.8
Norvège
69.1
69.8
65.3
66.2
69.2
71.1
72.0
67.1
66.5
74.7
71.7
67.4
66.4
Nouvelle-Zélande
0.7
1.3
1.5
1.0
1.1
1.0
0.9
0.5
0.7
0.4
0.9
0.9
1.4
0.8
Suisse
71.5
73.1
64.9
68.6
69.8
71.6
75.9
70.4
68.3
71.1
68.8
67.8
66.9
62.6
Turquie
23.4
14.3
13.0
15.7
25.0
26.4
22.4
20.8
3.4
21.1
28.8
25.7
26.6
20.1
Total UE25
38.0
37.3
36.5
33.2
34.1
36.8
39.7
34.0
31.9
36.6
36.9
35.8
32.8
32.5
Total OCDE
27.1
34.8
34.4
31.6
29.2
29.0
32.8
35.5
32.5
29.4
31.7
30.6
30.3
28.8
Afrique du Sud
..
12.3
16.8
8.7
11.9
8.6
8.4
5.6
1.8
8.0
7.0
8.0
9.0
..
Brésil
..
..
-7.7
-3.4
-4.4
4.0
-0.8
4.4
3.4
3.8
4.7
3.6
5.9
..
Chine
-13.1
0.9
6.3
1.9
1.9
1.4
-2.1
4.0
6.5
7.2
9.9
6.8
8.4
..
Fédération de Russie
-28.7
-4.1
13.7
18.5
27.0
19.0
0.8
4.6
14.3
18.0
15.9
19.3
15.5
..
1 2 http://dx.doi.org/10.1787/275353782282
Estimation du soutien aux producteurs agricoles par pays
En pourcentage des recettes brutes de l’exploitation
1986-1988
2004-2006
1995-1997
2003-2005
90
80
70
60
50
40
30
20
10
0
ie
e
ss
de
Ru
Ch
Su
Fé
dé
ra
Af
t io
n
r iq
ue
du
in
d
il
és
Br
la
nd
e
e
Is
èg
rv
is
se
No
Su
Co
ré
e
n
po
Ja
al
UE
25
DE
To
t
OC
qu
ie
al
To
t
Tu
r
na
Ca
s-
da
is
Un
ue
at
Ét
M
ex
iq
li e
ra
st
Au
No
uv
el
le
-Z
é
la
nd
e
-10
1 2 http://dx.doi.org/10.1787/400006013040
PANORAMA DES STATISTIQUES DE L’OCDE 2008 – ISBN 978-92-64-04055-7 – © OCDE 2008
217
FINANCES PUBLIQUES • SOUTIENS ET AIDES
CONCOURS PUBLICS À LA PÊCHE
Les captures des pêches maritimes diminuent à cause du
déclin des stocks imputable à la surpêche et, aussi, sous
l’effet des mesures nationales et internationales adoptées
pour préserver les ressources halieutiques qui subsistent.
Particulièrement sensible dans l’hémisphère Nord, ce
phénomène amène les pouvoirs publics, dans beaucoup de
pays membres de l’OCDE, à apporter un soutien financier au
secteur halieutique.
Pêche : transferts financiers publics
pour certains pays
Millions de dollars des EU
Japon
Corée
États-Unis
Canada
Espagne
Total UE15
3 500
3 000
Définition
La série chronologique des « Transferts financiers
publics (TFP) » constitue un indicateur du soutien dont
bénéficie le secteur de la pêche. Ces transferts consistent en
transferts directs visant à augmenter les revenus
(paiements directs), en transferts destinés à réduire les
coûts d’exploitation et en dépenses au titre des services
généraux fournis au secteur de la pêche. Les services
généraux comprennent essentiellement les activités de
protection des ressources, mais aussi les prévisions
météorologiques par zones et les systèmes de navigation et
de surveillance par satellite conçus à l’intention des
flottilles de pêche.
2 500
2 000
1 500
1 000
500
0
1996 1997 1998 1999 2000 2001 2002 2003 2004 2005
1 2 http://dx.doi.org/10.1787/400214547038
Comparabilité
Les données sont relativement complètes et cohérentes
d’une année à l’autre, mais certaines variations
interannuelles doivent être interprétées avec prudence, car
elles peuvent refléter des modifications des systèmes
statistiques nationaux. Il convient également de noter que
les chiffres concernant les services généraux assurés par les
pouvoirs publics peuvent englober des investissements
importants et ponctuels dans des équipements. Par
exemple, en 2001, mais surtout en 2002, les transferts
publics de la Grèce comprenaient le coût de la mise en
œuvre d’un système de surveillance par satellite.
Tendances à long terme
Au cours de la dernière décennie, les transferts totaux au secteur
halieutique dans l’OCDE ont fluctué aux alentours de 6 milliards
de dollars des EU, ce qui représente environ 18 % de la valeur de la
totalité des captures des pêches. C’est le Japon qui a le plus
dépensé, contribuant de 37 % au total des transferts de l’OCDE,
bien que ce nombre ait diminué au cours de la dernière décennie.
La majorité des transferts publics correspond à la gestion des
pêcheries, à la recherche et à la police des pêches (38 % des
transferts totaux dans les pays de l’OCDE) et aux dépenses
d’infrastructure (39 %). Le reste comprend les programmes de
désarmement des navires (7 %), la garantie de revenus (5 %), les
accords d’accès (3 %), la construction et la modernisation des
navires (3 %), d’autres transferts destinés à réduire les coûts et des
paiements directs des services généraux (5 %).
Source
• OCDE (2007), Examen des pêcheries dans les pays de l’OCDE :
Vol. 2 – Statistiques nationales, 2002-2004, Édition 2006,
OCDE, Paris.
Pour en savoir plus
Publications analytiques
• Cox, A. (2003), OECD Work on Defining and Measuring
Subsidies in Fisheries, OCDE, Paris.
• Cox, A. (2004), Subsidies and Deep-Sea Fisheries Management:
Policy Issues and Challenges, OCDE, Paris.
• Cox, A. et C. Schmidt (2003), Subsidies in the OECD Fisheries
Sector: A Review of Recent Analysis and Future Directions,
document préparé pour le FAO Expert Consultation on
Identifying, Assessing and Reporting on Subsidies in the
Fishing Industry, Rome, 3-6 décembre 2002.
• Flatten, O. et P. Wallis (2000), Government Financial Transfers
to Fishing Industries in OECD Countries, OCDE, Paris.
• OCDE (2000), Pour des pêcheries responsables : Implications
économiques et politiques, OCDE, Paris.
• OCDE (2005), Environmentally Harmful Subsidies: Challenges
for Reform, OCDE, Paris.
• OCDE (2006), OECD Sustainable Development Studies –
Subsidy Reform and Sustainable Development: Economic,
Environmental and Social Aspects, OCDE, Paris.
• OCDE (2007), Les aides financières au secteur de la pêche :
Leurs répercussions sur le développement durable, OCDE,
Paris.
• OCDE (2007), Structural Change in Fisheries: Dealing with the
Human Dimension, OCDE, Paris.
• OCDE et FAO (2008), Globalisation and Fisheries – Proceedings
of an OECD-FAO Workshop, OCDE, Paris.
Sites Internet
• OCDE Pêcheries, www.oecd.org/agr/peche.
218
PANORAMA DES STATISTIQUES DE L’OCDE 2008 – ISBN 978-92-64-04055-7 – © OCDE 2008
FINANCES PUBLIQUES • SOUTIENS ET AIDES
CONCOURS PUBLICS À LA PÊCHE
Pêche : transferts financiers publics
Milliers de dollars des EU
1996
1997
1998
1999
2000
2001
2002
2003
2004
2005
Allemagne
81 567
63 215
16 488
31 276
29 834
28 988
28 208
7 343
6 088
4 350
46 299
Australie
37 391
41 230
..
..
82 272
75 902
78 038
95 558
95 560
Belgique
4 970
4 949
..
4 473
6 849
2 830
1 607
1 668
6 328
8 613
Canada
545 301
433 309
..
606 443
564 497
521 355
497 771
589 975
618 787
591 000
Corée
367 793
378 994
211 927
471 556
320 449
428 313
538 695
495 280
495 280
649 387
Danemark
85 771
82 030
90 507
27 765
16 316
..
68 769
37 659
28 505
58 108
Espagne
246 473
344 581
296 642
399 604
364 096
376 614
301 926
353 290
256 569
238 151
1 222 500
États-Unis
891 160
1 002 580
1 041 000
1 103 100
1 037 710
1 169 590
1 130 810
1 290 440
1 064 400
Finlande
28 978
26 198
26 888
19 236
13 908
16 510
16 025
20 231
19 397
24 817
France
158 203
140 807
..
71 665
166 147
141 786
155 283
179 740
236 811
126 194
61 013
Grèce
52 308
46 958
26 908
43 030
87 315
86 957
88 334
119 045
35 500
Irlande
112 673
98 880
..
143 184
..
..
63 632
64 960
..
..
Islande
43 770
38 678
36 954
39 763
41 978
28 310
28 955
48 348
55 705
64 326
Italie
162 625
91 811
..
200 470
217 679
231 680
159 630
149 270
170 055
119 239
Japon
3 186 363
2 945 785
2 135 946
2 537 536
2 913 149
2 574 086
2 323 601
2 310 744
2 437 934
2 165 198
Mexique
14 201
16 808
..
..
..
..
..
177 000
114 000
..
Norvège
172 694
163 437
153 046
180 962
104 564
99 465
156 340
139 200
142 315
149 521
Nouvelle-Zélande
37 241
40 397
29 412
29 630
27 273
15 126
18 981
38 325
50 134
32 197
Pays-Bas
39 927
35 849
..
..
1 389
12 779
12 443
6 569
5 218
13 685
Pologne
8 148
7 927
..
..
..
..
..
..
..
..
Portugal
71 847
65 077
..
28 674
25 578
25 066
24 899
26 930
26 930
32 769
République tchèque
Royaume-Uni
..
..
..
269
241
223
235
..
..
..
115 359
128 066
90 833
75 968
81 394
73 738
..
82 691
87 487
90 000
Suède
62 320
53 452
26 960
31 053
25 186
22 505
24 753
30 650
34 422
36 603
Turquie
28 665
15 114
..
1 277
26 372
17 721
16 167
16 300
59 500
98 072
Total UE15
1 549 000
1 435 000
1 392 000
1 232 000
1 136 000
1 293 000
1 047 000
1 267 000
1 215 000
978 790
Total OCDE
6 555 748
6 266 132
4 183 511
6 046 934
6 154 196
5 949 544
5 735 102
6 281 216
6 046 925
5 832 042
1 2 http://dx.doi.org/10.1787/275367125357
Pêche : transferts financiers publics
Croissance annuelle moyenne en pourcentage, 1996-2005 ou dernière période disponible
30
20
10
0
-10
-20
ré
e
Tu
rq
uie
Me
xiq
ue
e
qu
Co
e
is
nd
Isl
a
Be
lgi
Ét
at
s-
Un
ali
e
e
str
èc
da
Au
Gr
e
na
Ca
Es
pa
gn
E
e
CD
èg
lO
To
ta
de
rv
No
de
ell
e-
Zé
lan
e
an
Fin
l
No
uv
i
Un
nc
Fr
a
ie
e-
Ita
l
um
ya
Ro
All
em
ag
ne
Pa
ys
-B
as
Po
rtu
ga
l
Irla
nd
e
Su
èd
e
Da
ne
m
ar
k
Ja
po
n
-30
1 2 http://dx.doi.org/10.1787/400158561031
PANORAMA DES STATISTIQUES DE L’OCDE 2008 – ISBN 978-92-64-04055-7 – © OCDE 2008
219
FINANCES PUBLIQUES • SOUTIENS ET AIDES
AIDE PUBLIQUE AU DÉVELOPPEMENT
La promotion du développement économique et social des
pays non membres est un objectif essentiel de l'OCDE
depuis sa création. La part de revenu national qu'un pays
consacre à l'aide publique au développement (APD) est
généralement considérée comme un indicateur de son
attachement au développement international, et les
Nations Unies ont depuis longtemps déjà assigné pour
objectif aux pays développés d'allouer 0.7 % de leur revenu
national brut (RNB) à l'APD. Les tableaux figurant dans cette
section rendent compte de la part de leur RNB que les
différents pays affectent à l'APD, ainsi que de la répartition
géographique des apports d'APD bilatérale.
Définition
Par aide publique au développement, on entend l’aide
fournie par les gouvernements aux pays en développement
en vue d’y favoriser le développement économique et
l’amélioration du niveau de vie. Les prêts et crédits à des
fins militaires en sont exclus. L’aide peut emprunter la voie
bilatérale, autrement dit être fournie directement par un
donneur à un bénéficiaire, ou être acheminée par
l’intermédiaire d’un organisme multilatéral, comme les
Nations Unies ou la Banque mondiale.
L’aide peut prendre la forme de dons, de prêts assortis de
conditions de faveur ou d’apports d’assistance technique.
Sont considérés comme assortis de conditions de faveur les
prêts comportant un élément de libéralité d’au moins 25 %.
L’APD est habituellement mesurée en termes nets, c’est-àdire que les remboursements y sont déduits des apports
bruts. Les données relatives à la répartition géographique de
l’aide présentées ici sont toutefois exprimées en valeur
brute afin de rendre compte de l’ampleur des nouveaux
apports consentis au cours de la période considérée.
L’OCDE gère une liste de pays et territoires en
développement, et seule l’aide destinée à ces pays est
comptabilisée dans l’APD. Cette liste, qui est régulièrement
actualisée, compte actuellement plus de 150 pays ou
territoires qui avaient un revenu par habitant inférieur
Tendances à long terme
Le CAD total montré dans ce graphique est la moyenne
pondérée du volume total de l’APD consentie par les membres du
CAD en pourcentage de leur RNB cumulé. Ce rapport a
atteint 0.31 % en 2006. La moyenne non pondérée mesurant
« l’effort moyen par pays » était de 0.46 % en 2006. La tendance à
la baisse, depuis 1990, sur laquelle s’inscrivaient les deux
moyennes a pris fin en 1999 et elle s’est ensuite inversée, les
membres du CAD ayant accru leur aide conformément aux
engagements qu’ils ont souscrits à la Conférence internationale
sur le financement du développement tenue à Monterrey en 2002.
Les rapports APD/RNB sont tombés à leur niveau le plus faible en
1997 ; depuis 2002, ils augmentent cependant à nouveau,
atteignant un pic en 2005, dû à l’annulation de la dette. 2006 a
marqué la première chute de l’APD en termes réels depuis 1997,
bien que le niveau soit toujours le plus haut qui ait été enregistré
avec l’exception de 2005. Tandis que l’APD est susceptible de
retomber légèrement en 2007, car l’annulation de la dette du
Nigeria et de l’Irak s’effile, on s’attend à ce que d’autres types
d’aides s’accroissent car les donateurs se déplacent pour remplir
des engagements plus récents.
220
à 10 066 dollars des EU en 2004 (à titre de comparaison, le
revenu par habitant atteignait en moyenne plus de
35 000 dollars des EU dans les pays de l’OCDE la même
année). Il est à noter que, sur les 30 pays membres de
l’OCDE, seuls les 22 recensés dans le tableau sont membres
du Comité d’aide au développement (CAD), auxquels
s’ajoute la Commission européenne.
Comparabilité
Les statistiques sur l'APD sont établies sur la base d'un
ensemble de directives mises au point par le CAD, et les
statistiques de chaque pays font l'objet, à intervalles
réguliers, d'un examen de la part des autres membres du
CAD. Des données relatives à la Grèce ne sont disponibles
que depuis 1996, ce pays ayant rejoint le CAD en 1999. De
1990 à 1992 inclus, l'allègement de la dette non APD était
reportable comme une partie de l'APD du pays mais était
exclus du total CAD.
Source
• Statistiques du Comité d’aide au dévelopment.
Pour en savoir plus
Publications analytiques
• OCDE (2006), Objectif développement, L’efficacité de l’aide
alimentaire pour le développement : Les effets de l’aide liée,
OCDE, Paris.
• OCDE (2006), Système de notification des pays créanciers :
Activités d’aide pour les services sociaux de base en 2004,
OCDE, Paris.
• OCDE (2007), Objectif développement, Objectif
développement – L’aide au commerce : Comment la rendre
efficace, OCDE, Paris.
• OCDE (2008), Financer le développement : Aide publique et
autres flux, OCDE, Paris.
• OCDE (2008), Panorama de l’aide au développement 2007 :
Statistiques par région, OCDE, Paris.
• OCDE (2008), Revue de l’OCDE sur le développement :
Coopération pour le développement – Rapport 2007 – Efforts et
politiques des membres du Comité d’aide au développement
Volume 9-1, OCDE, Paris.
Publications statistiques
• OCDE (2006), Système de notification des pays créanciers sur
les activités d’aide, 6 volumes, OCDE, Paris.
• OCDE (2007), Statistiques du développement international sur
CD-Rom, OCDE, Paris.
• OCDE (2008), Répartition géographique des ressources
financières allouées aux pays bénéficiaires de l’aide 2002/2006 :
Édition 2008, OCDE, Paris.
Bases de données en ligne
• Statistiques du développement international.
Sites Internet
• Statistiques du Comité d’aide au dévelopment,
www.oecd.org/cad/stats/sdienligne.
• OCDE, Calcul de l’élément don des prêts d’aide,
www.oecd.org/dataoecd/15/0/31738575.pdf.
PANORAMA DES STATISTIQUES DE L’OCDE 2008 – ISBN 978-92-64-04055-7 – © OCDE 2008
FINANCES PUBLIQUES • SOUTIENS ET AIDES
AIDE PUBLIQUE AU DÉVELOPPEMENT
Aide publique au développement nette
En pourcentage du revenu national brut
Allemagne
1993
1994
1995
1996
1997
1998
1999
2000
2001
2002
2003
2004
2005
2006
0.35
0.33
0.31
0.32
0.28
0.26
0.26
0.27
0.27
0.27
0.28
0.28
0.36
0.36
Australie
0.35
0.34
0.34
0.27
0.27
0.27
0.26
0.27
0.25
0.26
0.25
0.25
0.25
0.30
Autriche
0.11
0.17
0.27
0.23
0.24
0.22
0.24
0.23
0.34
0.26
0.20
0.23
0.52
0.47
Belgique
0.39
0.32
0.38
0.34
0.31
0.35
0.30
0.36
0.37
0.43
0.60
0.41
0.53
0.50
Canada
0.45
0.43
0.38
0.32
0.34
0.30
0.28
0.25
0.22
0.28
0.24
0.27
0.34
0.29
Danemark
1.03
1.03
0.96
1.04
0.97
0.99
1.01
1.06
1.03
0.96
0.84
0.85
0.81
0.80
Espagne
0.28
0.28
0.24
0.22
0.24
0.24
0.23
0.22
0.30
0.26
0.23
0.24
0.27
0.32
États-Unis
0.15
0.14
0.10
0.12
0.09
0.10
0.10
0.10
0.11
0.13
0.15
0.17
0.23
0.18
Finlande
0.45
0.31
0.31
0.33
0.32
0.31
0.33
0.31
0.32
0.35
0.35
0.37
0.46
0.40
France
0.63
0.62
0.55
0.48
0.44
0.38
0.38
0.30
0.31
0.37
0.40
0.41
0.47
0.47
Grèce
..
..
0.15 0.15 0.14 0.15 0.15 0.20 0.17 0.21 0.21 0.16 0.17 0.17 0.54 Irlande 0.20 0.25 0.29 0.31 0.31 0.30 0.31 0.29 0.33 0.40 0.39 0.39 0.42 Italie 0.31 0.27 0.15 0.20 0.11 0.20 0.15 0.13 0.15 0.20 0.17 0.15 0.29 0.20 Japon 0.27 0.29 0.27 0.20 0.21 0.27 0.27 0.28 0.23 0.23 0.20 0.19 0.28 0.25 Luxembourg 0.35 0.40 0.36 0.44 0.55 0.65 0.66 0.71 0.76 0.77 0.81 0.83 0.86 0.89 Norvège 1.01 1.05 0.86 0.83 0.84 0.89 0.88 0.76 0.80 0.89 0.92 0.87 0.94 0.89 0.27 Nouvelle-Zélande 0.25 0.24 0.23 0.21 0.26 0.27 0.27 0.25 0.25 0.22 0.23 0.23 0.27 Pays-Bas 0.82 0.76 0.81 0.81 0.81 0.80 0.79 0.84 0.82 0.81 0.80 0.73 0.82 0.81 Portugal 0.28 0.34 0.25 0.21 0.25 0.24 0.26 0.26 0.25 0.27 0.22 0.63 0.21 0.21 Royaume-Uni 0.31 0.31 0.29 0.27 0.26 0.27 0.24 0.32 0.32 0.31 0.34 0.36 0.47 0.51 Suède 0.99 0.96 0.77 0.84 0.79 0.72 0.70 0.80 0.77 0.84 0.79 0.78 0.94 1.02 Suisse 0.33 0.36 0.34 0.34 0.34 0.32 0.35 0.34 0.34 0.32 0.39 0.41 0.44 0.39 Total CAD 0.30 0.29 0.26 0.25 0.22 0.23 0.22 0.22 0.22 0.23 0.25 0.26 0.33 0.31 dont : Membres de l’ UE 0.43 0.41 0.37 0.37 0.33 0.33 0.31 0.32 0.33 0.35 0.35 0.35 0.44 0.43 1 2 http://dx.doi.org/10.1787/275443820107 Aide publique au développement nette En pourcentage du revenu national brut 1996 2006 1.1 1.0 0.9 0.8 Objectif recommandé par l'ONU : 0.7 0.7 0.6 0.5 Effort moyen des pays : 0.46 (2006) 0.4 0.3 0.2 0.1 Su gn e All em ag ne Es pa AC e lD To ta ali da na str Au iss e Fin lan de To tal UE 15 Fr an ce Au tri ch e Be lgi qu Ro e ya um eUn i Irla nd e Da ne m ar k Pa ys -B Lu as xe m bo ur g No rv èg e Su èd e ve No u Ca de lle - Zé lan po n ga l Ja ie Ita l tu Po r is Un s- Ét at Gr èc e 0.0 1 2 http://dx.doi.org/10.1787/400214854115 PANORAMA DES STATISTIQUES DE L’OCDE 2008 – ISBN 978-92-64-04055-7 – © OCDE 2008 221 FINANCES PUBLIQUES • SOUTIENS ET AIDES AIDE PUBLIQUE AU DÉVELOPPEMENT Bénéficiaires principaux de l’aide publique au développement bilatérale brute totale des pays du CAD par région Millions de dollars des EU, moyennes sur 3 ans 1992-1994 1995-1997 1998-2000 Afrique subsaharienne 11 918 Afrique subsaharienne 10 623 Afrique subsaharienne 9 100 Mozambique 908 Mozambique 706 Mozambique 748 Tanzanie 788 Côte d’Ivoire 626 Tanzanie 737 Côte d’Ivoire 759 Tanzanie 597 Côte d’Ivoire 483 Zambie 641 Éthiopie 464 Ouganda 454 Cameroun 571 Sénégal 428 Ghana 408 394 Somalie 543 Ouganda 417 Zambie Éthiopie 509 Cameroun 416 Afrique du Sud 390 Kenya 482 Kenya 415 Sénégal 383 Sénégal 477 Zambie 411 Cameroun 365 Zimbaboué 393 Madagascar 369 Éthiopie 359 Moyen-Orient et Afrique du Nord 7 608 Moyen-Orient et Afrique du Nord 5 318 Moyen-Orient et Afrique du Nord 3 877 Égypte 3 296 Égypte 1 826 Égypte 1 503 Israël 1 691 Israël 989 Maroc 489 Maroc 629 Maroc 505 Jordanie 367 Algérie 381 Jordanie 390 Territoires sous administration palestinienne 323 Jordanie 329 Algérie 261 Tunisie 265 Asie du Sud et Asie Centrale 4 622 Inde 1 696 Asie du Sud et Asie Centrale 4 597 Inde 1 656 Asie du Sud et Asie Centrale 4 489 Inde 1 483 Bangladesh 919 Bangladesh 813 Bangladesh Pakistan 800 Pakistan 661 Pakistan 586 Sri Lanka 385 Sri Lanka 403 Sri Lanka 369 Népal 270 Extrème-Orient et Océanie 10 311 Népal 254 Extrème-Orient et Océanie 9 705 813 Népal 232 Extrème-Orient et Océanie 9 754 Indonésie 2 439 Chine 2 107 Indonésie Chine 2 414 Indonésie 1 884 Chine 2 105 Philippines 1 606 Philippines 1 122 Thaïlande 1 093 1 013 Thaïlande 778 Thaïlande 970 Viêtnam Vietnâm 487 Viêtnam 593 Philippines Europe 1 793 Europe 1 564 2 203 957 Europe 2 264 États d’ex-Yougoslavie 962 Bosnie 618 Bosnie 584 Turquie 458 Turquie 408 Serbie 453 Albanie 123 Amérique latine et Caraïbes 5 754 Albanie 103 Amérique latine et Caraïbes 5 717 Turquie 305 Amérique latine et Caraïbes 5 100 El Salvador 494 Bolivie 547 Pérou Bolivie 491 Nicaragua 530 Bolivie 481 404 Pérou 479 Pérou 415 Nicaragua 376 Mexique 415 Brésil 329 Nicaragua 408 Mexique 300 Brésil 361 Afrique subsaharienne 9 100 1 2 http://dx.doi.org/10.1787/275466631858 Aide publique au développement bilatérale brute totale des pays du CAD par région Millions de dollars des EU 1992-1994 1995-1997 1998-2000 2001-2003 2004-2006 28 000 24 000 20 000 16 000 12 000 8 000 4 000 0 Afrique subsaharienne Asie du Sud et Asie centrale Extrême-Orient et Océanie 1 2 http://dx.doi.org/10.1787/400254184743 222 PANORAMA DES STATISTIQUES DE L’OCDE 2008 – ISBN 978-92-64-04055-7 – © OCDE 2008 FINANCES PUBLIQUES • SOUTIENS ET AIDES AIDE PUBLIQUE AU DÉVELOPPEMENT Bénéficiaires principaux de l’aide publique au développement bilatérale brute totale des pays du CAD par région (suite) Millions de dollars des EU, moyennes sur 3 ans 2001-2003 Afrique subsaharienne 13 172 2004-2006 Afrique subsaharienne 24 973 République démocratique du Congo 1 889 Nigéria 5 940 Mozambique 1 066 Soudan 1 278 Tanzanie 963 République démocratique du Congo 1 265 Éthiopie 641 Zambie 1 150 Cameroun 628 Ghana 1 146 Côte d’Ivoire 523 Éthiopie 1 105 Ouganda 497 Cameroun 1 010 Ghana 446 Tanzanie 1 002 Zambie 432 Mozambique 822 Afrique du Sud 416 Ouganda 797 Moyen-Orient et Afrique du Nord 4 675 Égypte 1 298 Moyen-Orient et Afrique du Nord 16 255 Irak 11 586 Irak 760 Égypte 1 199 Jordanie 687 Maroc 707 Maroc 476 Territoires sous administration palestinienne 643 Territoires sous administration palestinienne 394 Jordanie 506 Asie du Sud et Asie Centrale 6 636 Asie du Sud et Asie Centrale 8 069 Inde 1 639 Afghanistan 2 091 Pakistan 1 336 Inde 1 715 Afghanistan 848 Bangladesh Bangladesh 792 Pakistan 848 Sri Lanka 396 Sri Lanka 719 Extrème-Orient et Océanie 8 077 856 Extrème-Orient et Océanie 10 128 Chine 1 920 Chine 2 558 Indonésie 1 581 Indonésie 2 016 Philippines 1 014 Viêtnam 1 368 Viêtnam 880 Philippines 1 039 Thaïlande 818 Thaïlande Europe 2 813 767 Europe 2 928 Serbie 1 135 Serbie 862 Turquie 357 Turquie 447 Bosnie 337 Amérique latine et Caraïbes 5 408 Bosnie 305 Amérique latine et Caraïbes 6 669 Bolivie 679 Colombie 723 Colombie 587 Bolivie 705 Pérou 582 Nicaragua 701 Nicaragua 535 Pérou 609 Brésil 369 Honduras 585 1 2 http://dx.doi.org/10.1787/275466631858 Aide publique au développement bilatérale brute totale des pays du CAD par région Millions de dollars des EU 1992-1994 1995-1997 1998-2000 2001-2003 2004-2006 28 000 24 000 20 000 16 000 12 000 8 000 4 000 0 Moyen-Orient et Afrique du Nord Europe Amérique latine et Caraïbes 1 2 http://dx.doi.org/10.1787/400274480181 PANORAMA DES STATISTIQUES DE L’OCDE 2008 – ISBN 978-92-64-04055-7 – © OCDE 2008 223 FINANCES PUBLIQUES • FISCALITÉ RECETTES FISCALES TOTALES FINANCES PUBLIQUES Fiscalité Les recettes fiscales totales en pourcentage du PIB indiquent la part de la production d’un pays qui est prélevée par l’État sous forme d’impôts. Comparabilité
Les données sont collectées de manière à faciliter le plus
possible
les
comparaisons
internationales.
Les
représentants des pays ont approuvé la définition de
chaque catégorie d’impôts et les modalités d’évaluation des
impôts dans tous les pays de l’OCDE. Ils sont donc
responsables de la transmission de données qui soient
conformes à ces règles. Celles-ci sont exposées dans le
« Guide d’interprétation de l’OCDE » à la fin de chaque
édition des Statistiques des recettes publiques.
Définition
Les impôts sont définis comme des paiements obligatoires
sans contrepartie aux administrations publiques. Ils sont
sans contrepartie en ce sens que les prestations fournies par
l’État aux contribuables ne sont normalement pas
proportionnelles à leurs paiements.
Les impôts sur les revenus et les bénéfices sont des impôts
prélevés sur les revenus ou les bénéfices nets (revenus bruts
diminués des déductions fiscales autorisées) des
particuliers et des entreprises. Ils comprennent également
les impôts prélevés sur les gains en capital des particuliers
et des entreprises et sur les gains de jeux.
Les impôts sur les biens et services sont tous les impôts
prélevés sur la production, l’extraction, la vente, la
mutation, la location ou la fourniture de biens, la prestation
de services, l’utilisation de biens ou l’autorisation d’utiliser
des biens ou d’exercer des activités. Il s’agit essentiellement
de taxes sur la valeur ajoutée et de taxes sur les ventes.
On notera que la somme des impôts sur les biens et services
et des impôts sur les revenus et les bénéfices n’est pas égale
au total des recettes fiscales, qui comprend aussi les
paiements effectués par les employeurs et les salariés dans
le cadre des systèmes obligatoires de sécurité sociale ainsi
que les prélèvements sur les salaires, les impôts liés à la
propriété et au transfert de biens, et d’autres impôts.
| 19,637
|
2005LIMO0005_3
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,005
|
Modélisation electrothermique non linéaire de transistors de puissance LDMOS : Application à la détermination de règles d'échelle
|
None
|
French
|
Spoken
| 7,763
| 11,724
|
.Vgs 2 +.Vgs.Vds + d Vgs d Vds 2 d Vgs 2 d Vgs.dgs 1 d 2 Ids 1 d 3 Ids 1 d 3 Ids..Vds 2 +..Vgs3 +..Vgs 2.Vds + 2 3 2 2 d Vds 6 d Vgs 2 d Vgs δ Vds 1 d 3 Ids 1 d 3 Ids..Vgs.Vds2 +..Vds 3 2 δ Vgs.dgVds 2 6 d Vds 3 en simplifiant, I ds (Vgs,Vds) = Gm.Vgs + Gd.Vds + Gm2.Vgs 2 + Gmd.Vgs.Vds + Gd 2.Vds 2 + Gm3.Vgs 3 + Gm2d.Vgs 2.Vds + Gmd 2.Vgs.Vds 2 + Gd 3.Vds 3 Gm : transconductance Gds : conductance de sortie Gm2, Gm3 : dérivées 1ère et 2ème de la transconductance suivant Vgs Gd2 Gd3: dérivées 1ère et 2ème de la conductance de sortie suivant Vds Gmd, Gm 2d, Gmd2 :Respectivement la
dérivé croisée
de Ids suivant Vgs et Vds, la variation de la dérivée croisée suivant Vgs et la variation de la dérivée croisée suivant Vds. 69
Il est alors nécessaire, si l’on veut pouvoir prédire les intermodulations avec un modèle, d’utiliser une source de courant pouvant fournir les dérivées jusqu’à l’ordre 3 minimum.
11.6Conversion de phase AM-PM
La conversion de phase représente l’effet de la variation de l’amplitude de la puissance d’entrée sur la phase de la puissance de sortie et est donc exprimée en degrés.
Ps AM − PM
= arg Pe
C’est un critère qui caractérise la non-linéarité en régime statique uniquement (effets mémoire), il est généralement mesuré en injectant un signal mono-porteuse à la fréquence de travail. A noter que la valeur de l’AM-PM est une information relative définie uniquement sur une bande de puissance donnée. Les effets mémoires dynamiques étant autrement plus difficiles à quantifier. Il a été clairement démontré [45] la dépendance de l’AM-PM vis à vis des éléments intrinsèques du modèle équivalent, Gm, Cgd et Cgs ont un impact significatif sur sa valeur.
φ = f ( gm,C gs,C gd )
70 12
Conclusion Cette première partie est une introduction au sens général de notre étude. Nous avons situé et justifié les transistors LDMOS sur le marché des télécommunications, leur raison d`être. Le “domaine” de la modélisation de trans istors est tout aussi vaste que fourbi en terme de topologie, d`interpolation des données...de méthodes. Nous avons essayé de retracer clairement les frontières entre modèle comportemental plus dédié au niveau système et modèle générique destiné à la conception au niveau circuit/ composant. Chacun de ces modèles possédant euxmêmes une multitude de types/ familles avec chacun leurs propres caractéristiques et applications. L`introduction de la notion d`incertitude de mesure nous a semblé intéressante à porter dans ce manuscrit. Intéressante parce que régulièrement ignorée dans la plupart des ouvrages traitant des modèles. Peux être tout simplement parce que l`on entend le plus souvent par modèle: Faire coïncider la réponse d’une topologie donnée avec des mesures; là où nous pensons que par modéli ser on entend: mesurer – “modéliser”et valider comme nous le verrons par la suite. Les nombreuses informations sur l`extraction du modèle et sur le développement du modèle thermique nous permettent d`aborder la suite de notre étude en connaissance de cause. Plus qu`une introduction, nous avons détaillé l`ensemble des étapes/ des outils qui sont nécessaires à la compréhension de notre étude. Le dernier maillon qui nous semble nécessaire est la description du cahier des charges, ce que nous voulons modéliser, et comment sont traduits ces phénomènes dans notre modèle. Cette première partie s`est volontairement voulue aussi générale que possible. Il nous a été essentiel de ne pas nous perdre dans les détails techniques nuisibles à la compréhension globale de ce manuscrit, ces derniers faisant l`objet de la partie suivante: La modélisation non linéaire électrothermique du transistor LDMOS.
71 72
Partie 2 Génération du modèle Electrothermique Non Linéaire 73 74 1 Généralités
Un modèle électrothermique peut se subdiviser en 2 sous modèles : un modèle électrique non-linéaire, un modèle thermique dynamique. Ces deux sous-modèles sont interdépendants, le premier fournissant la puissance dissipée au dernier qui lui retourne la température instantanée. De par leur complexité, ces deux sous modèles seront étudiés distinctement
Figure 28 Couplage du modèle thermique au modèle électrique non-linéaire
Par où commencer la modélisation? Les deux entités sont des modèles distincts qui s’échangent les informations de puissance dissipée et de température. Ceci sous-entend que le modèle électrique doit pouvoir interpréter l’information de température en plus des autres informations de tension de grille et de tension de drain, quant au modèle thermique il doit pouvoir fournir instantanément l’information de température associée à l’information de puissance dissipée qu’il reçoit du modèle électrique. En rés umé le modèle électrique reçoit les informations Vgs, Vds et T et doit donner les informations de charge, de courants et de puissance dissipée. Le modèle thermique reçoit l’information de puissance dissipée et donne l’information de température instantanée mais du fait des constantes de temps thermiques ( de l`ordre de quelques 75 nanosecondes pour un signal RF de 2 GHz) la notion de température instantanée correspond en fait à une moyenne sur plusieurs cycles RF. Le modèle électrique est en fait la pierre angulaire de tout le modèle électrothermique, lui seul interface avec le simulateur de circuit. Nous avons donc à déterminer les variations des éléments intrinsèques du modèle électrique non-linéaire avec les tensions Vgs et Vds ainsi qu’avec la température T. La Figure 29 présente le processus complet pour la génération d’un modèle électrothermique. La génération du modèle électrique non-linéaire se compose de 2 étapes. - Extraction de modèles isothermiques à plusieurs températures. - Concaténation des données de ces dits modèles dans une seule et même table dont les entrées sont Vgs, Vds et T. Cette table est exploitée avec des tri-splines d’interpolation. Chaque modèle isothermique est lui-même composé de 4 étapes : - Mesure I/V et paramètres S en mode pulsé : Pour chaque couple Vgs/Vds, on relève le courant ainsi que les paramètres S qui sont associés à cette polarisation. A noter que les valeurs de Vgs sont choisies manuellement alors que les valeurs de Vds sont déterminées par un algorithme de façon à ce qu’un minimum de point de mesures soit nécessaire pour obtenir une résolution choisie sur le réseau I/V. - Détermination des éléments extrinsèques. - Extraction des éléments intrinsèques et formatage en table à deux entrées Vgs et Vds. - Traitement des données afin de diminuer une erreur résiduelle sur les capacités intrinsèques en régime de quasi-saturation et saturation. Les mesures en mode pulsé permettent de caractériser le transistor sans modifier son état thermique stable, c’est à dire que si on lui fixe une température donnée, l’application des tensions lors de la mesure ne générera quasiment pas d’auto échauffement supplémentaire. Le modèle thermique est lui décrit dans le logiciel de simulation thermique Ansys. Après avoir défini sa structure géométrique, on extrait les données nécessaires à la génération d’un modèle thermique réduit. On obtient au final les deux modèles que l’on peut coupler dans un simulateur de circuit. 76
Figure 29 Processus de génération d'un modèle électrothermique complet
77 2
Modèle Electrique non-linéaire
La modélisation électrique non-linéaire repose sur l’utilisation du schéma électrique équivalent des transistors LDMOS. Lg Cgd Rg Rd G Cpg Vgs Vds Cgs Cds Ld D Cpd Ids(Vgs(t-τ), Vds(t)) Rs Ls S
Figure 30 Topologie à éléments localisés d'un Transistor LDMOS
Comme nous l’avons cité dans la première partie de ce mémoire, extraire un modèle électrique consiste à déterminer les valeurs de ses éléments extrinsèques puis d’en déduire les valeurs des éléments intrinsèques quelque soit le point de polarisation du transistor.
2.1 Détermination des éléments extrinsèques
Parmi les méthodes qui nous sont disponibles pour la détermination des éléments extrinsèques, deux nous ont intéressées : la méthode analytique et la méthode par optimisation. Connaissant très bien la technologie LDMOS et connaissant toutes les caractéristiques nécessaires, la méthode analytique fut utilisée en premier pour nous donner une idée rapide de l’ordre de grandeur de ces éléments. 78
Figure 31 Métallisations d'accès à la zone active du transistor Figure 32 Métallisations coté Drain Figure 33 Métallisations coté Grille
Cependant on peut remarquer que même si l’on admet que ce sont les métalisations d’accès à la zone active qui générent les éléments parasites, on peut difficilement localiser ces éléments, la zone active n’étant pas localisée en un point précis mais dispersée à travers le ca nal. Les éléments parasites sont donc également disspersés le long de ce canal, reste à savoir comment juger de cette disspersion. Les valeurs ainsi obtenues ne seront en tout état de cause que des bornes supérieures des valeurs réelles, mais on peut toute fois considérer qu’en appliquant un facteur d’un tiers aux valeurs calculées nous permet de nous approcher au plus près, ce facteur se vérifiera par la suite.
Figure 34Circuits de modélisation des extrinsèques de Grille et de Drain
Des 6 éléments inconnus que nous avons à déterminer, 2 seulement sont réellement « importants ». Les résistances Rg et Rd sont déterminantes, les capacités Cpg et Cpd sont quasi négligeables du fait la taille de transistor considéré, et quant aux inductances Lg et Ld leur incertitude sur leur valeur n’a un impact que très limité sur le modèle final. La méthode par optimisation est alors utilisée pour affiner les valeurs, en alternant les 2 algorithmes (diffusion simulée et recuit simulé auto-adaptatif) du logiciel Kar [46], on arrive à 79 une erreur résiduelle minime. Si un ensemble de valeurs d’éléments extrinsèques est trouvé pour un point de polarisation donné, il convient de le vérifier sur un autre point de polarisation. Figure 35 Processus d'extraction des composants extrinsèques sous Kar
L’utilisation de la méthode basée sur les simulations électromagnétiques pourrait constituer une bonne alternative à la méthode analytique dans le sens ou l’on pourrait également obtenir des valeurs de départ avant d’utiliser Kar. Mais force est de constater que les valeurs obtenues par simulations électromagnétiques sont très proches des valeurs finales, et peuvent constituer en l’état une solution tout aussi pertinente que Kar. Pour simuler les métallisations d’accès on utilise le simulateur Electromagnétique M Momentum d’ Agilent.
Figure 36 Métallisation de Drain avec ses Ports de simulation 80 Figure 37 Métallisation de Grille avec ses Ports de simulation
Expliqué largement dans [21], le substrat LDMOS a la particularité de générer d’importantes pertes électriques dans les éléments passifs tels que les lignes de transmissions, les self-inductances. Ces pertes sont dues en grande partie à des phénomènes électromagnétiques tel que les courants de Foucault, les couplages négatifs et autre effet de Peau. Les lignes de transmissions que sont les métallisations d’accès sont soumises à ces phénomènes de pertes. Les simulations E.M. doivent donc prendre en compte le phénomène de pertes du substrat LDMOS en intégrant les différentes couches du semi-conducteur avec ses caractéristiques physiques propres. couche épaisseur (μm) Permittivité Conductivité (S/m) Passivation 1.00 6.00 0 ILD1 glass 1.885 4.3 0 ILD0 glass 0.945 4.3 0 Oxide de champ 2.835 3.9 0 EPI 1 11.9 10 Transition 3 11.9 300 Substrat 130 11.9 104 Avec : Metal-2 : épaisseur = 3.6 μm ; conductivité = 2.778e7 S/m 81 Metal-1 : épaisseur = 1.5 μm ; conductivité = 2.778e7 S/m Via : épaisseur = 3.6 μm ; conductivité = 2.778e7 S/m
Cette définition de l’empilement des couches du substrat LDMOS est utilisée par le simulateur Momentum pour déterminer la fonction de Green et inclure ses effets sur la résolution du problème E.M. pour générer les paramètres S associés à la structure simulée. De même que pour la détermination analytique, l’aspect dispersif des éléments extrinsèques pose une fois encore le problème suivant : où disposer les ports de simulation le long des doigts de grille et de drain? On cherche à déterminer les éléments extrinsèques localisés sous forme d’un circuit à 2 ports d’accès. Il nous importe donc de simuler les paramètres S des métallisations afin d’extraire les phénomènes (résistance et inductance) dispersifs sous forme d’éléments localisés. La simulation des métallisations de Drain diffère légèrement de la métallisation de Grille.
Simulation de la partie Réelle
pour la métallisation de Drain : L’idéal est de disposer un port unique P1 à l’entrée de la métallisation et de simuler la structure en réflexion. Du fait de la très haute conductivité du substrat LDMOS (10 000 S/m), la résistance de substrat Rsub en série avec la résistance dispersive n’influe que de façon infinitésimale sur la valeur réelle de la résistance dispersive. Du paramètre S11 on en déduit la partie réelle de l’impédance de la structure et donc la résistance localisée Rd. Simulation de la partie imaginaire pour la métallisation de Drain :
La simulation de la partie imaginaire diffère de celle de la partie réelle. La capacité parasite Csub du substrat n’est pas négligeable et même assez importante en regard de la partie imaginaire de la métallisation de Drain. Il n’est donc plus possible d’utiliser la simulation en réflexion précédente pour l’extraction de l’inductance parasite Ld, une solution consiste à faire une simulation en transmission de la métallisation en ajoutant le port P2 sur la structure.
82 Figure 38 Phénomènes physiques présents lors de la simulation des métallisations coté Drain Simulation des parties Réelles et Imaginaires de la métallisation de Grille
La métallisation de Grille est séparée du substrat silicium par une couche d’oxide mince (spécificité des transistors MOSFET). Cet oxyde est une résistance de valeur relativement importante par rapport à la résistance dispersive de grille Rg, et une capacité également de forte valeur en rapport avec la partie imaginaire de cette même métallisatio n de grille. Si l’on devait utiliser une simulation en réflexion, la résistance Rg et l’inductance Lg seraient masquée par l’oxide mince de grille. Là aussi la solution consiste à utiliser une simulation en transmission entre les ports P1 et P2. Figure 39 Matérialisation des métallisations coté Grille 83
Les Figure 39 et Figure 41 ci-après présentent les valeurs de Rd et Rg en fonction du développement du transistor. On compare les valeurs obtenues avec le simulateur électromagnétique et les valeurs obtenues par extraction avec Kar sur 4 tailles de transistors mesurés : 0.6 1.2 21.4 & 4.8 mm. On constate ainsi l’excellente cohérence entre les 2 méthodes, on peut ainsi déterminer les valeurs de Rd et Rg pour des développements de transistor plus importants et constater que les valeurs tendent vers une asymptote. Il est cependant important de noter que la simulation de telles structures (métallisations de drain et de grille) est rapidement limitée par les capacités informatiques.
Figure 40 Evolution de Rd avec la taille du transistor 84 Figure 41 Evolution de Rg avec la taille du transistor
Cette technique permet donc de déterminer les composants extrinsèques uniquement sur la base de simulations électromagnétiques, on peut ainsi prédire le comportement du transistor pour des développements plus importants.
2.2 Modélisation par tables
Utilisées uniquement dans le cadre de modèles exploitant des tables de données, les splines permettent de donner des réponses au simulateur à partir de données issues directement des mesures sans passer par une étape d’optimisation. Ces tables (ou matrices) possèdent les valeurs des éléments intrinsèques Ids, Cgs, Cgd et Cds pour les paramètres d’entrée Vgs, Vds et T (température). Le simulateur fournit au modèle les tensions d’excitations et ce dernier lui retourne les informations nécessaires à la convergence de la simulation c’est à dire les valeurs de Ids, Cgs, Cgd et Cds ainsi que des dérivées. 85
Figure 42 Intégration des composants du modèle dans le simulateur de circuit Rmq : les dérivées seront calculées par les
splines uniquement pour la source de courant. En ce qui concerne les capacités la conservation de la charge nécessite d’utiliser un modèle mathématique qui utilise les valeurs des capacités pour déterminer les charges sans discontinuité. Ce modèle repose sur l’intégration trapézoïdale [47] pour obtenir une charge continue sur le cycle de charge. Qn = Qn −1 + et sa dérivée 1 (Cn + Cn−1 )* (Vn − Vn −1 ) 2 ∂Q / ∂v = 0.5 * (C n + C n −1 ) Une autre remarque concernant les dérivées (Gm, Gd, Qn). Elles sont fournies en première approche par le modèle, mais il est important de mettre en lumière le fait que le simulateur de circuit ADS ne se servira de ces valeurs que pour initier la convergence vers une réponse stable. On entend par-là que le simulateur déterminera lui-même les dérivées avec son algorithme de Newton-Raphson à partir des valeurs du courant qui lui sont données par le modèle. Fournir des dérivées précises et continues permet au simulateur de converger plus rapidement vers la solution mais n`intervient aucunement dans la determination de cette valeur.
86 2.3
Les splines
Les splines (ou lattes en Français) sont une technique mathématique qui permet de faire des interpolations de données par morceaux. Suivant le degré d’interpolation et des conditions initiales, on distingue plusieurs familles de splines. • Spline linéaire : la plus élémentaire, c’est une interpolation basique entre 2 points de données. • Spline quadratique : interpolation utilisant 3 points de données, seule sa dérivée première est continue. • Spline cubique : interpolation utilisant 4 points de données, sa dérivée seconde est continue. • Spline cubique naturelle : se dit des splines (quadratiques ou cubiques) ayant pour condition initiale f n" ( x n ) = 0 c’est à dire que la spline d’interpolation passe obligatoirement par les points de données, ce qui n’est pas le cas pour les splines cubiques précédentes dont les conditions initiales imposent une continuité de la dérivée seconde.
Figure 43 Spline linéaire (rouge), cubique (vert) et cubique naturelle (Bleu)
2.3.1 Splines Cubiques à 1 dimension
Comme nous l’avons dit précédemment, les splines cubiques utilisent 4 points de données (a, b, c, d) pour déterminer une valeur interpolée dans un intervalle donné [a : b].De façon imagée, une spline est une latte dont les courbures sont imprimées par des ressorts liés aux piquet que sont les points de données. La raideur de ces ressorts est déterminée par des polynômes qui sont fonctions des valeurs des autres points.
87
Figure 44 Raideur d'une spline Cubique
Les polynômes qui déterminent la raideur de ces «ressorts » sont obtenus par la méthode des différences divisées et qui permettent de respecter les conditions de continuité : Raideur du ressort associé au 4ème point : PolyA = 1 3
x 6 Raideur du ressort associé au 3ème point : PolyB = −0.5 x 3 + 0.5 x 2 + 0.5 x + Raideur du ressort associé au 2ème point : PolyC = 0.5 x 3 − x 2 + 1 6 4 6 1 1 Raideur du ressort associé au 1er point : PolyD = − x 3 + 0.5 x 2 − 0.5 x +
6 6 Ainsi pour déterminer une valeur interpolée, le polynôme issu de la combinaison des 4 autres polynômes devra être déterminé. Poly( x ) = PolyA + PolyB.x + PolyC.x 2 + Poly.x 3
A noter qu’en dehors du domaine de validité du modèle qui est défini par les mesures faites, des valeurs seront extrapolées par des splines d’approximation basée sur des dérivées. Ces valeurs ne sont pas certifiées exactes mais permettent de fournir une réponse cohérente au simulateur et l’aide ainsi à converger vers une réponse en régime permanent.
Figure 45 Extrapolation des mesures en dehors de la zone de définition
88
2.3.2 Splines Cubiques à 2 dimensions (splines bi cubiques)
Si l’on considère une table à 2 entrées, la détermination d’une valeur dans un intervall e imposé par ces mêmes entrées nécessite une double interpolation. Prenons le cas d’une table dont les entrées sont Vgs et Vds. L’interpolation du point e dans l’intervalle [a : b] suivant Vds nécessite tout d’abord d’interpoler les points a, b, c, d suiv ant Vgs, en fait le chemin d’interpolation n’a pas d’incidence sur le résultat final.
Figure 46 Exploitation d'une grille de données par une spline bi-cubique
Le traitement des dérivées en dehors de la zone de définition du modèle se fait identiquement. 2.3.3 Splines Cubiques à 3 dimensions (splines tri cubiques)
Il s’agit d’ajouter un troisième paramètre d’entrée à la table. Les données de la table sont alors interpolées suivant 3 dimensions (ou paramètres) à savoir Vgs, Vds et T (température).Le problème est identique au précédent, on interpole suivant Vgs et Vds pour 4 températures différentes, le problème devient donc maintenant unidimensionnel. On effectue une troisième 89 interpolation suivant T, et le résultat est obtenu. Il s’agit en fait plus d’une gestion de table tridimensionnelle que d’un problème mathématique
Figure 47 Exploitation d'une table 3D par une spline Tri Cubique
2.4 Intégration du modèle dans le simulateur de circuit ADS
Les splines tri cubiques sont codées en langage C dans le simulateur de circuit ADS. Ce programme exploite les tables de données stockées dans un fichier texte. La Figure 48 représente la philosophie de fonctionnement du programme qui régit le modèle. • Dès qu’une simulation est exécutée, des calculs initiaux sont faits afin d’optimiser les temps de simulation, ces calculs correspondent aux polynômes calculés au tout début suivant Vgs, ils sont indépendants de Vds et de la température alors ils sont prédéterminés et stockés en mémoire. • Ensuite pour chaque itération qui doit mener à la convergence vers une réponse donnée du circuit, chaque composant intrinsèque va fournir à une routine (commune aux 4 composants intrinsèques) ses tensions de commandes (Vgs, Vds et T) pour que celle-ci les normalise c’est à dire positionne les splines dans les tables de données. Ces valeurs normalisées sont stockées en mémoire jusqu’à ce que leur valeur change pour éviter ainsi de les rec alculer en permanence (gain en temps). 90 • Ensuite ces tensions normalisées sont transmises au moteur de calcul des splines Tricubiques pour déterminer les valeurs de courant, capacité et autres dérivées associés aux tensions et sont renvoyés aux composants intrinsèques.
Figure 48 Fonctionnement du modèle dans le simulateur
On pourrait penser que la rapidité d’exécution d’une simulation dépend du calcul intrinsèque des splines mais dans les faits c’est le niveau de convergence qui prévaut. Si l’on considère une simulation d’équilibrage harmonique (HB), le processus de détermination des charges pour les éléments non linéaires comprend plusieurs opérations notamment la translation fréquence-temps puis temps-fréquence et ce pour chaque itération jusqu’à ce qu’un critère d’erreur soit respecté. Le temps global d’une simulation est alors globalement partagé entre le calcul des splines et les transformées de Fourier pour chaque itération. On peut aisément penser que le pa ramètre de convergence est un facteur important pour le temps de simulation. En résumé, le temps d’une simulation dépend de : • nombre d’harmoniques • tolérance sur le paramètre d’erreur • nombre de points d’échantillons • rapidité du calcul des Tri-Splines • Rapidité des transformées de Fourier Directe et Inverse. 91 • Convergence numérique, cohérence des réponses des éléments intrinsèques du modèle. On peut certes gagner en temps de simulation en optimisant le code C des splines, mais ce gain ne concerne que le calcul des splines et non l’ensemble de la simulation. Figure 49
Algorithm
e d'équilibrage harmonique 92 3
Détermination d’une cellule unitaire du modèle thermique
La détermination d’une cellule unitaire est une étape intéressante dans notre travail de modélisation, cela consiste à déterminer comment les doigts du transistor interagissent d’un point de vue thermique. Alors pourquoi vouloir déterminer une cellule unitaire? Nous le verrons plus en détail dans la suite de nos travaux mais cela nous est essentiel pour déterminer les règles de scaling pour générer des modèles thermiques de transistor de développement plus importants. Il nous est encore aisé de simuler des modèles thermiques de transistors ayant des développement de grille de l’ordre de 4-5 mm, mais au delà les capacités de stockage nécessaires des données informatiques sont telles qu’il devient très difficile d’exploiter ces données extraites du simulateur. Pour passer outre ces limitations informatiques, il est nécessaire de réduire le coût de calcul en simulant tout simplement le minimum nécessaire et en extrapolant les données acquises. Le schéma ci-dessous présente les termes de couplage thermique entre 4 doigts d’un transistor. Ces termes sont : • R11, R 22, R33, R44 : ils représentent l’auto échauffement de chaque doigt. • R41, R 31, R21 : sont respectivement les thermes de couplages thermiques du doigt 1 avec les doigts 4 – 3 – 2, c’est à dire qu’en plus de leur auto échauffement, chaque doigt va subir l’échauffement du doigt 1 proportionnellement à ce terme de couplage. 93
Figure 50 Couplage thermique inter-doigts
En régime établi, l’ensemble des termes de couplage thermique peut être représenté sous forme matricielle :
T M1 M Ti M M T n R 11 R 21 M = Ri1 M M R n1 R 12 R 22 L R 1i L L O R ii O O L L L L L R P 1n 1 M M M M M P i M M M M R P
nn
n Tj étant la température du doigt i, Pj est la puissance injectée dans le doigt j et R ij est appelée la résistance thermique entre le doigt i et j quand seul le doigt j est alimenté en puissance de telle sorte que
Rij
=
Ti Pj Pk
≠ j
= 0 On peut aisément imaginer qu’un seul doigt ne pourra être couplé à un autre doigt qui serait trop éloigné, reste à savoir quelle est la distance (ou combien de doigts) maximum qui peut être couplée. Pour répondre à cette question, il nous suffit de faire l’expérience suivante : 94 1concevoir un modèle physique que l’on va simuler avec le simulateur Ansys. Ce modèle devra avoir suffisamment de doigts pour en déterminer le couplage maximal. 2Imposer une puissance de dissipation sur un des doigts. 3Relever la température sur chaque doigt. 4Quantifier les couplages thermiques. Le résultat est présenté sur la Figure 51 ci-après, où l’on visualise les termes de couplages R11, R21, R31, R41... R1-16. L’auto échauffement participe à hauteur de 30 % de l’échauffement total, le 2ème doigt participe à hauteur de 16 %, le 3ème pour 11 %, le 4ème pour 9%, en résumé les 4 premiers doigts génèrent à eux seuls 66 % de l’échauffement final.
R
thmax
40 35 Rth (K/W) 30 25 20 Rthmax 15 10 5 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 N (finger)
Figure 51 Evolution du couplage thermique d'un doigt avec les autres
Quant au couplage maximal, on peut l’attribuer au 14ème doigt où moins de 1% de la température est issue du couplage avec le 1er doigt. Pour concevoir des modèles thermiques de développements plus importants il suffira d’exploiter les données de ce modèle unitaire Cependant, pour des raisons de commodité, on considérera une cellule unitaire composée de 16 doigts.
95
3.1 Réduction de modèle avec FastTherm
En fonction de la complexité de la géométrie du transistor et de la précision souhaitée, le modèle peut comporter jusqu’à plusieurs dizaines de milliers de nœuds. Comme vue en partie 1 de ce mémoire, il est possible de transcrire l’équation de diffusion de la chaleur en éléments électriques localisés (réseau de résistance, capacités...) dans un simulateur de circuit, ceci permet de coupler la simulation thermique à un modèle électrique et obtenir ainsi un modèle électrothermique. Si l’on considère un modèle comportant 10000 nœuds (grandeur usuelle) sa transcription sous forme de circuit électrique à éléments localisés nécessitera au bas mot 100 000 éléments localisés, ce qui est totalement rédhibitoire et impossible à simuler. Depuis nombre d’années les mathématiciens proposent des méthodes pour réduire l’encombrement de ces systèmes en effectuant des réductions matricielles ou autre optimisation par polynôme. L’abondance en matière de technique de réduction de modèle en est déconcertante, chaque méthode ayant ses avantages et inconvénients suivant le type d’application que l’on souhaite faire du modèle réduit. Parmi les plus utilisé on notera : • L’approximation de Padé • Réduction de Guyan. • Réduction d’Arnoldi basée sur les sous–espaces de Krylov... Une nouvelle méthode [23] a récemment été développée, elle est basée sur l’utilisation des vecteurs de Ritz. Cette méthode a l’avantage de préserver la passivité et la stabilité du système c’est dire qu’il n’y a pas d’oscillations locales de la réponse du système. Ce type de phénomène est généralement produit lorsque la dérivée de la réponse n’est pas continue. Une autre caractéristique de la réduction par vecteurs de Ritz est son extrême précision dans la réponse. Le régime établi est parfaitement décrit avec un seul vecteur – un vecteur étant équivalent à une cellule RC et donc une constante de temps thermiquela finesse de la description temporelle pouvant aisément être améliorée en effectuant une réduction qui conserve plus de vecteurs de Ritz. Il va de soit que plus on souhaite une précision élevée dans des temps très courts plus le modèle réduit sera conséquent et sa simulation longue. L’obtention d’un modèle thermique réduit se fait en suivant le processus décrit Figure 52. Le logiciel Ansys est utilisé «uniquement » comme un mailleur d’éléments finis, pour chaque 96 élément les matrices de conductivité K et de capacité thermique M sont calculées ainsi que le vecteur de charge F. De ces matrices élémentaires de K M & F, on détermine les matrices nodales globales, ce sont en fait les matrices d’interaction globales entre tous les nœuds du maillage et donc entre tous les points de la structure maillée. Ces matrices sont alors converties dans un format spécifique pour être ensuite traitées par l’application de réduction de modèle thermique FastTherm. Cette application FastTherm (qui exploite les vecteurs de Ritz) utilise un fichier de configuration dans lequel est, entre autre, spécifié le nombre de vecteurs de Ritz utilisés pour la réduction. Ce nombre de vecteurs détermine la précision temporelle du modèle thermique, du fait que, à chaque vecteur additionnel, une constante de temps thermique est ajoutée au modèle thermique.
97
Figure 52 Processus de génération d'un modèle thermique réduit de Ansys vers ADS
Un modèle à un vecteur de Ritz permet d’obtenir la réponse en régime établi avec une erreur nulle, c’est la première des caractéristiques de la réduction par Ritz. Augmenter le nombre de vecteur accroît dramatiquement la précision du régime transitoire. Avec 10 vecteurs, on prend 98 en compte des constantes thermique de l`ordre de la microseconde tandis qu`au dela de 50 vecteurs des constantes de l`ordre de la nanoseconde sont modelisees.
Figure 53 Réponse en température d'un modèle thermique avec 1, 10, 50, 90, et 120 vecteurs de Ritz
3.2 Extraction des matrices K & M du simulateur Ansys
La méthode de réduction de modè le développé par l’IRCOM repose sur la recherche des valeurs et vecteurs propres de l’équation d’équilibrage. M. X + K.X = F
M: matrice de capacité thermique K: matrice de résistance thermique F: vecteur d’excitation 99
X
: vecteur de température induite
Cette technique nécessite l’accès direct aux matrices réelles M & K et au vecteur F. La méthode des vecteurs de Ritz a été initialement développée pour fonctionner avec le logiciel de simulation thermique basé sur la méthode des éléments finis nommé MODULEF. Ce logiciel, initialement développé par l’INRIA, n’est à ce jour plus soutenu et possède une interface obsolète difficile à appréhender. C’est pourquoi l’IRCOM a récemment opté pour l’utilisation d’un logiciel de simulation thermique très largement répandu dans l’industrie: Ansys. Ansys est un simulateur qui est également basé sur la méthode FEM (Méthode des Eléments finis), doté d’une interface plus conviviale, il permet la conception et la simulation de modèle plus complexe et surtout plus rapidement qu’avec MODULEF. Cependant un inconvénient majeur est apparu, il n’est pas possible de générer directement les matrices adéquates nécessaires pour l’obtention d’un modèle réduit. En effet le mode de fonctionnement d’Ansys fait que certains fichiers sont générés lors d’une simulation, ces fichiers sont : les fichiers de résultats de la simulation, ou des fichiers “page” qui sont en fait des fichiers temporairement écrits sur le disque dur du PC pour cause de manque de mémoire vive. Cependant après une longue étude sur le fonctionnement d’Ansys, il s’avère qu’il est possible de forcer le simulateur à générer certaines matrices. Le fichier possédant l’extension EMAT possède les matrices K&M ainsi que le vecteur F au niveau élémentaire, c’est à dire que les données ne sont pas disponible au niveau nodal mais uniquement pour chaque élément du modèle maillé. Alors que faire de ces données élémentaires? Chaque élément possède un certain nombre de nœuds, les matrices M&K élémentaires possèdent les informations de couplage entre ses nœuds. Si un nœud est commun à plusieurs éléments, alors ses termes de couplages avec les autres nœuds seront répartis dans chaque matrice élémentaire.
Figure 54 Exemple d'éléments finis et matrice d'assemblage des éléments associés 100
Prenons comme exemple le schéma cidessus composé des éléments 1,2 et 3. L’élément 1 possède les nœuds 1, 2, 3 & 6 ; l’élément 2 possède les nœuds 6, 4 & 3 et enfin l’élément 3 possède les nœuds 3, 4 & 5. Les termes de couplages du nœud 1 avec les nœuds 2, 3 & 6 sont uniquement dans la matrice de l’élément 1. Il en est de même pour le nœud 2, ainsi que pour le nœud 5 de l’élément 3. En revanche pour un nœud qui est commun à 2 éléments (ou plus) comme le sont les nœuds 3, 4 & 6 ; leurs termes de couplage sont dispersés entre les éléments 1,2 & 3 pour le nœud 3, entre les éléments 2 & 3 pour le nœud 4 et entre les éléments 1 & 2 pour le nœud 6. Reconstituer les matrices M & K et vecteur F au niveau nodal est, dans le formalisme de s éléments finis, l’opération d’assemblage. Bien que n’étant pas généré par Ansys, cette opération d’assemblage est effectuée en mémoire lors de chaque simulation thermique. D’un point de vue strictement informatique, l’assemblage des matrices et vecteurs nodaux consiste à intégrer les termes de couplages de chaque élément dans une matrice globale ayant n rangs et n lignes, n étant le nombre de nœuds de notre modèle. 101 4
Modulation drain et grille
Chaque élément intrinsèque de la topologie utilisée du transistor est dépendant des tensions Vgs et Vds, tensions que l’on peut qualifier d’intrinsèques. Ce choix est tout à fait cohérent dans le cas de transistor de faible puissance avec un courant de drain relativement faible. Mais dans le cas de transistor de puissance (ce qui est notre cas) le courant de drain crée des chutes de tensions en traversant les résistances de drain Rd et de source Rs. Au regard des valeurs de ces résistances Rd et Rs (respectivement de 2 ohms et 0.25 ohms) on pourrait penser en première estimation qu’elles n’ont qu’un faible impact mais si l’on considère un courant Ids = 200 mA, la chute de tension associés à Rd est de Vdacc =0.4 V et associé à Rs est Vsacc= 0.05 V.
Vdacc Vgacc Lg Cgd Rg Rd G Cpg Vgs Cpd Vds Cgs Cds Vgs_ext Ld D Ids=f( Vgs(t-t ),Vds(t)) Vds_ext Rs Vsacc Ls S
Figure 55 Chutes de tensions dans la topologie du modèle
Ces deux tensions ont pour effet de fausser les valeurs de Vds et Vgs : Vds =
Vds _ ext − Vdacc − Vsacc Vgs = Vgs _ ext − Vgacc − Vsacc = Vgs _ ext − Vsacc
En plus de cette erreur de valeur il convient de rappeler que le transistor a été caractérisé en appliquant des tensions à ses accès extérieurs, les composants intrinsèque ont une description avec les tensions Vgs_ext et Vds_ext et non avec Vgs et Vds. Il s’agit essentiellement d’un formalisme mais comme le montre la Figure l’incidence sur la précis ion de la description de la source de courant est concrète. 102
Dans les zones du réseau IV ou les dérivées sont importantes (en Vds ou Vgs) le moindre décalage en tension est conséquent. Pour remédier à ce problème nous avons modifié la topologie du modèle, ou tout du moins les dépendances en tensions de composants intrinsèques, ces derniers retrouvent leur dépendance avec Vgs_ext et Vds_ext en leur adjoignant des entrées supplémentaires qui ont pour unique vocation de prélever les tensions dans les plans d’accès au transistor.
Ids (Vds) @ Vgs constant
0.40 0.35 0.30 0.25
Ids
0.20 0.15 0.10 0.05 0.00 -0.05 40 38 36 34 32 30 28 26 24 22 20 18 16 14 12
10 8 6 4 2 0 -2 Vds (V) Figure 56 Réseau IV mesuré en pulse @25 °C : courbes rose ; Réseau IV simulé initial : courbes rouge ; Réseau IV simulé après modification: courbes bleues
Cette modification
permet
également une meilleure convergence en analyse DC. La caractérisation électrique du transistor repose sur la description du réseau IV en fonction des tensions Vgs et Vds appliquées aux accès de Grille et de Drain. Pour éviter une surabondance de données, on relève seulement un nombre restreint de points du réseau qui permettent d’avoir une erreur limitée sur la description [48]. Pour cela on effectue tout d’abord les mesures des points aux extrémités du domaine de définition, puis dans cet intervalle on 103 conserve uniquement les points qui permettent d’améliorer le résultat en utilisant une interpolation par spline à un paramètre suivant Vds, on compare la valeur théorique interpolée et la valeur mesurée ; Si l’erreur est inférieure à une valeur prédéterminée, ce point n’est pas conservé. Cette méthode se nome «dichotomie récursive » et permet de décrire finement les variations d’une courbe avec une quantité minimum de points de mesures, seule les zones à forte courbure sont abondées en données. A chaque point mesuré on relève également les paramètres S associés nécessaires à la détermination des éléments intrinsèques.
Figure 57 Mesure de la source de courant Ids par dichotomie récursive
La conséquence de cette technique est une description fine de la source de courant Ids en fonction de Vds, les zones ohmiques et d’avalanche sont modélisées avec une erreur minimale. Cependant cette méthode nous pose 2 problèmes : • Les variations de la source de courant en fonction de Vgs ne sont qu’approximatives du fait que l’on fixe simplement un pas de mesure et non une erreur maximale comme pour les variations avec Vds. • Les éléments intrinsèques que sont Cds, Cgs et Cgd n’ont pas les mêmes variations que la source de courant suivant Vds et Vgs. On manque ainsi d’informations pour les zones où les capacités varient rapidement et une surabondance dans des zones « linéaires » des capacités. 104 Ces deux inconvénients posent un problème de convergence dans le simulateur de circuit, les dérivées fournies par le modèle ne sont pas continues. 105
5
Variation de Ids avec Vgs
Le choix de la réalisation d’un modèle hautement non linéaire utilisé tout particulièrement en classe AB nécessite la description du réseau Ids (Vgs, Vds) avec une grande précision, le cycle de charge théorique explorant les zones à forte courbure en Vds et Vgs. Les variations en Vds étant parfaitement reproduites reste à évaluer le comportement du modèle dans les zones où le courant de drain aura des dérivées importantes. La courbe ci-dessous représente le courant Ids=f (Vgs) pour Vds = 26 V. Lors de la caractérisation les mesures ont été réalisées avec un pas de 0.5 V en Vgs. Les variations de Ids dans les zones 3V < Vgs < 4.5 V et 6.5V < Vgs < 8.5V sont telles que l’on ne dispose pas assez de points de mesures pour modéliser ces variations. Cela est surtout critique dans la zone 3V < Vgs < 4.5 V où le transistor est polarisé, le besoin en précision est flagrant. Dans l’absolu la valeur intrinsèque du courant n’est pas une fin en soi, ce qui est encore plus important c’est la dérivée Gm. De cette dérivée dépend la précision du gain en puissance (et donc de la puissance de sortie) ainsi que des intermodulations d’ordres 5 et 7. Figure 58 Affinage de la description de la source de courant Id 106
Pour remédier à ce problème on peut soit refaire une série de mesures avec un pas en Vgs plus fin ou user d’une méthode mathématique dans le cas où refaire des mesures n’est pas possible. Cette méthode mathématique consiste à utiliser un des nombreux outils proposés par l’algèbre pour affiner notre modèle. Avant d’expliciter sur ce sujet, on va juste mettre en lumière la propriété d’enveloppe convexe des splines cubiques.
Enveloppe convexe
Si l’on considère la spline d’interpolation construite à partir des 6 points (a, b, c, d, e, f, g), la propriété d’enveloppe convexe qui lui est associée nous indique qu’elle ne peut sortir du polygone défini par réunion des polygones (a, b, c, d), (b, c, d, e), (c, d, e, f), (d, e, f, g).
Figure 59 Exemple d'enveloppe convexe
Cette propriété est intéressante dans le sens ou si l’on veut réduire l’erreur d’interpolation, ou plus concrètement faire passer la spline au plus proche des points de mesures, l’enveloppe convexe doit avoir une aire minimale.
107 Figure 60 Exemple d'enveloppe convexe affinée
L’ajout de point de contrôle permet de contrôler l’approximation locale de la spline. Si l’on reconsidère notre exemple précédent, l’adjonction des points a’, b’, c’, d’, e’, f’ réduit dramatiquement l’aire de l’enveloppe convexe, la spline passe au plus près des points originels. Un trop grand nombre de points provoque un phénomène d’oscillation. Plusieurs méthodes sont possibles pour la détermination de points de contrôle supplémentaires. - Par simple interpolation polynomiale : Lagrange, ge-Kutta - Ondelette. - Spline cubique naturelle. Chacune ce ces méthodes d’interpolation pourrait être applicable à notre problème, cependant les Splines cubiques naturelles ont l’avantage d’être simple et facile à utiliser dans notre problème. Elles ont également la particularité, contrairement aux splines cubiques basiques, de passer par les points de contrôle. Un algorithme codé en C++ a été mis au point pour appliquer l’ajout des points de contrôle uniquement lorsque l’écart entre la spline d’interpolation et les points de mesures dépassent une certaine erreur. La Figure 58 montre le résultat après traitement des données par ajout de points de contrôle avec des splines cubiques naturelles en Vgs. L’erreur d’interpolation est quasi négligeable.
108 Figure 61 Insertion de l'étape de traitement des données dans le processus d'extraction d'un modèle thermique
Cette étape est ajoutée dans le flux d’extraction du modèle en terme de « traitement des données ».
109
6 Effets de la température sur les éléments localisés du modèle ET
Les mesures pulsées du réseau IV et des paramètres S pour différentes températures de socle de la puce nous permettent d’apprécier les variations des différents composants du modèle équivalent avec la température. La source de courant non-linéaire Ids étant l’élément majeur du modèle nous commencerons par celle ci. La Figure 62 présente le courant Ids en fonction de Vgs et de Vds pour différentes températures de socle. Le point d’inflexion thermique (Ztc : zero temperature coefficient) se situe à Vgs = 4V, en de ssous de ce point, le courant augmente avec la température, et au-delà de ce point le courant diminue avec la température. Figure 62 Ids (Vgs, Vds): réseau bleu Tsocle = 25 °c Réseau rose Tsocle = 75 °c Réseau marron Tsocle = 125 °c Réseau rouge avec marker, Ids en continu 110.
L’effet de la température est plus prononcé lorsque l’on approche de la saturation ( Vgs > 6 V).On voit ainsi que pour Vgs = 7 V, la décroissance de Ids est de 0.6 mA / °C.
Figure 63 Evolution de Ids avec la température T pour différents Vgs à Vds=26V
La source de courant est l’élément le plus sensible à la température avec les résistances d’accès Rd et Rg. On n’est pas sans savoir la sensibilité de la conductivité des métaux avec la température, la Figure 64 présente l’évolution importante de Rg et Rd avec la température. Rd varie de 80 millohms par degré alors que Rg varie de 20 milliohms par degré. Ces variations avec la température de Rg et Rd ont un impact important sur les impédances d’entrée – sortie, mais surtout la résistance Rd qui est traversée par un courant important, la puissance de sortie du transistor est alors dépendante de la température.
111
Figure 64 Evolution des éléments extrinsèques Rd et Rg avec la température
Les derniers éléments susceptibles d’être dépendants de la température sont les capacités intrinsèques Cgd, Cgs et Cds. Mais les graphes de la Figure 65 contredisent ce fait, les capacités intrinsèques varient peu avec l’échauffement du transistor. Seule la capacité Cds présente une très légère dépendance avec la température, les deux autres capacités Cgd et Cgs ne présentent pas de variations claires, tout du moins pas de variation dans la zone où le modèle est susceptible d’être exploité. C’est pourquoi seule Cds sera implantée dans le modèle avec une dépendance en température, les deux autres éléments étant considérés isothermes pour faciliter la convergence de la simulation.
112 Figure 65 Dépendance des capacités Cgs, Cgs et Cds avec la température pour Vgs = 5V
113 7
Définition des règles de « scaling » L’ensemble de la procédure décrite précédemment pour l’extraction d’un modèle électrothermique est dédiée à un transistor d’une taille donnée. Si l’on souhaite extraire un modèle d’une autre taille, l’ensemble de la procédure devrait théoriquement être à nouveau suivie. Cependant la complexité et surtout la lourdeur de ce processus nécessite des ressources humaines et matérielles pour un résultat in fine qui n’est pas forcément le plus optimal, faire un modèle pour chaque taille ne constitue pas une solu tion versatile dans le sens où il n’est pas concevable de produire une infinité de modèles de quelque taille que ce soit. D’où la solution du «Scaling », c’est à dire définir des règles d’échelle mathématiques qui permettent, à partir d’un modèle unitaire, de reproduire au plus juste la réponse d’un transistor de quelque taille que ce soit sans avoir à refaire des mesures. Cela a pour avantages : - Un important gain en temps. - Le modèle est versatile, on peut théoriquement définir un modèle de toute taille. Le modèle initial sur lequel les règles de « scaling » seront appliquées devra bien sur être de très bonne facture et permettre au simulateur de circuit une bonne convergence. Dans le modèle ET tel que nous le concevons, on distingue trois parties : - Composants extrinsèques. - Composants intrinsèques. - Circuit
ique.
| 23,822
|
d45f6035b91e7475d5eeca470941ba4b_1
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,006
|
Anciennes et nouvelles technologies: Métaphores de l'esprit linguistique.. ASp (Anglais de Spécialité), 1999, 23-26, pp.323-333. ⟨10.4000/asp.2588⟩. ⟨hal-00114353⟩
|
None
|
French
|
Spoken
| 4,988
| 7,731
|
HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés.
Boulton. 1999. Anciennes et nouvelles technologies: Métaphores de l’esprit linguistique. • Published in Asp, 23/26, p. 323-333. (pre-print version) • Based on a paper given at the 20th GERAS conference: Réseaux. Cachan, France: Ecole Normale Supérieure. 18-20 March 2000.
L’enseignant de langues étrangères (L2) néglige souvent les connaissances psycholinguistiques, sous prétexte que le « module langue » est très complexe et difficile à cerner de façon compréhensible. Pour cette raison, de la civilisation grecque classique jusqu’à nos jours, l’esprit humain en général et nos fonctions linguistiques en particulier ont été imaginés à l’aide de métaphores. Nous commençons par une brève étude de la nature et du rôle de la métaphore dans le langage et dans la conception, avant de passer en revue les différentes métaphores employées pour décrire nos fonctions psycholinguistiques, leurs avantages et désavantages relatifs, et ce que chacune apporte à notre compréhension de l’esprit linguistique de l’apprenant L2. Finalement, nous comparons les notions de « réseau » dans les métaphores de l’informatique et du cerveau et leur contribution aux modèles actuels des associations lexicales interlinguistiques. Abstract The foreign language (L2) teacher is often ignorant of relevant psycholinguistic research, complaining that the “language module” is highly complex and difficult to understand. For this reason, from classical Greek civilisation to the present day, the human mind in general and our linguistic functions in particular have been described in terms of metaphors. We begin by outlining the nature and role of metaphor in language and thought, before moving on to an analysis of various metaphors used to describe psycholinguistic functions, their advantages and disadvantages, and what each has brought to our understanding of the linguistic mind of an L2 learner. Finally, we compare the different notions of “network” in metaphors of information processing and the human brain and their contribution to current models of interlingual lexical associations. Posted on HAL (Hyper Article en Ligne: http://hal.archives-ouvertes.fr/) by Alex Boulton. Since my PhD in 1998 I’ve been Maître de Conférences at the Université Nancy 2. I teach on distance degrees in English at the CTU (Centre de Télé-enseignement Universitaire), with courses in didactique, linguistics, lexicology, corpus linguistics, history of English, translation, etc. I’m a member of the CRAPEL (Centre de Recherches et Applications Pédagogiques en Langues; affiliated to the ATILF/CNRS), which is where I do my research. My first love was lexis, but current strong interests in data-driven learning and teaching/learning applications of corpus linguistics. http://www.univ-nancy2.fr/CRAPEL/
Contact: [email protected] CRAPEL-ATILF/CNRS Université Nancy 2 3 place Godefroi de Bouillon BP 3397; 54015 Nancy-cedex France Tel: 03.83.96.71.30 Fax: 03.83.96.71.32
Le XXème colloque du GERAS a comme thème un seul mot : réseau. La dernière Lettre du GERAS (n° 15 du 31 décembre 1998) articule l’inquiétude de la part de certains collègues devant une « dérive technologique » du GERAS ; il s’agit même peut-être d’une inquiétude devant les nouvelles technologies en général. Ce type d’inquiétude est tout à fait compréhensible — les réseaux informatiques sont à la base d’une véritable révolution que nous pouvons difficilement ignorer ; il s’agit d’une nouvelle technologie. Tout ce qui est nouveau peut être perçu comme une menace, difficile à comprendre, difficile à intégrer dans une philosophie pré-existante, et il nous est difficile à trouver des repères. Ceci nous en dit déjà long sur l’esprit humain : nous réarticulons de nouveaux concepts en termes de concepts déjà connus. On peut aller plus loin : lorsque l’homme se trouve face à de nouvelles informations, il ne peut les raisonner que dans le contexte de toutes les informations déjà dans son esprit : il s’agit d’un travail d’accommodation entre le connu et l’inconnu. Dans un sens très large du terme, est cette application d’un concept connu à la compréhension ou à l’expression d’un concept nouveau que nous appellerons la métaphore. Citons tout de suite George Lakoff et Mark Johnson, dont l’ouvrage Metaphors We Live By a changé toute notre perception de la métaphore, et qui est toujours aussi pertinent aujourd’hui : Metaphor is for most people a device of the poetic imagination and the rhetorical flourish — a matter of extraordinary rather than ordinary language. Moreover, metaphor is typically viewed as characteristic of language alone, a matter of words rather than thought or action. For this reason, most people think they can get along perfectly well without metaphor. We have found, on the contrary, that metaphor is pervasive in everyday life, not just in language but in thought and action. Our ordinary conceptual system, in terms of which we both think and act, is fundamentally metaphorical in nature. ( et Johnson 1980 :
Dans cet article, nous n’aborderons pas directement ces nouvelles technologies ; ce qui nous intéresse est le rôle qu’elles jouent en fournissant de nouvelles métaphores pour notre compréhension de l’esprit humain et des fonctions linguistiques humaines, en particulier en ce qui concerne le lexique mental. Nous commencerons par une appréciation de l’importance et de l’omniprésence de la métaphore dans le langage quotidien, avant de passer en revue certains dangers inhérents à une dépendance excessive. Ensuite, nous présenterons quelques métaphores qui ont été appliquées à l’esprit humain, au langage en général, et au lexique mental en particulier. Nous en retiendrons un concept récent et dominant, celui de « réseau », qui sert de point de départ pour un retour aux associations lexicales comme outil d’enquête sur le lexique mental de l’apprenant d’une langue étrangère.
La metaphore au quotidien
La métaphore est une caractéristique universelle et apparemment unique à l’homme. Richard Dawkins (1998) prétend que l’emploi de métaphore serait à l’origine de la croissance explosive de la taille du cerveau humain ; d’une manière comparable, Terence Deacon (1997) attribue l’évolution du langage humain à une capacité de fonctionner de manière symbolique : aucune autre espèce, même pas les chimpanzés dans les expériences américaines d’après guerre, ne fait preuve d’une capacité de représenter un signifié par un signifiant comme nous le faisons chaque instant de chaque jour. Nous arrivons maintenant au langage quotidien. Selon Lakoff et Johnson, les notions les plus fondamentales à notre pensée sont conceptualisées en termes de métaphores. La majorité de ces métaphores sont évidentes une fois qu’on les remarque : time is money et le temps c’est de l’argent sont même des expressions courantes. Celles-ci, liées à d’autres métaphores en anglais, comme time is a limited resource et time is a valuable commodity, nous fournissent les contextes suivants : Alex Boulton.
1999
. Anciennes et
nouvelles technologies
: Métaphores de l’esprit linguistique. Asp, 23/26, p. 323-333.
3 You’re wasting my time. This gadget will save you hours. I don’t have the time to give you. How do you spend your time these days? That flat tire cost me an hour. I’ve invested a lot of time in her. I don’t have enough time to spare for that. You’re running out of time. You need to budget your time. Put aside some time for ping pong. Is that worth your while? Do you have much time left? He’s living on borrowed time. You don’t use your time profitably. I lost a lot of time when I got sick. Thank you for your time. (Lakoff et Johnson 1980 : 7-8)
Que l’on en soit conscient ou pas, il est à supposer que time et money sont intimement liés dans l’esprit de tout locuteur anglophone. Cette métaphore représente bien plus qu’un simple effet de style littéraire ; ce sont les concepts qui sont liés, pas juste les mots. Lorsqu’il s’agit de créer une nouvelle métaphore, c’est-à-dire d’employer ce procédé de façon consciente et délibérée, il est généralement question d’un concept cible nouveau et difficile à décrire directement. Avec une bonne métaphore, plusieurs éléments essentiels du nouveau concept ont un équivalent dans un concept source bien connu, où ils doivent être très évidents. Bien sûr, ce processus n’est pas sans difficultés. La métaphore, tout d’abord, implique plus qu’une simple comparaison. Elle mène à une identification, voire à une fusion entre les deux éléments, qui peuvent par conséquent être confondus. Il est pour cette raison que nous préférons généralement comparer des éléments de deux champs conceptuels bien distincts ; bizarrement, la première des deux phrases suivantes est plus facile à comprendre que la deuxième : • His car is a penis. • His car is a lorry. En outre, il est fondamental à la notion même de métaphore que les deux éléments comparés ne soient pas identiques — sinon il ne s’agirait pas d’une métaphore mais d’une seule et unique chose. Ceci peut être dangereux lorsque la métaphore se fond en analogie, c’est-à-dire l’inférence que, si deux éléments se ressemblent sur certains points importants, il est probable qu’ils se ressembleront sur d’autres. Par exemple, en ce qui concerne l’apprentissage des langues, nous ne devrions pas nous étonner que l’apprenant essaie d’analyser une langue étrangère en termes de sa langue maternelle : la L1 sert de métaphore pour la L2. Ce type de raisonnement peut offrir de nouvelles perspectives : l’apprenant apprend plus vite que s’il commençait ab initio, mais cette approche peut également mener à certaines erreurs bien connues. Chaque métaphore est ainsi capable de nous aider dans notre compréhension d’un nouveau concept, mais chacune aura nécessairement ses faiblesses en même temps.
Metaphores linguistiques
La conceptualisation de l’esprit humain n’est pas facile. McCarthy (1990 : 34) rappelle que notre compréhension du langage et du lexique mental s’est développée avec l’évolution de nombreuses métaphores, à commencer par un verger, un chemin ou un magasin, une Alex Boulton. 1999. Anciennes et nouvelles technologies: Métaphores de l’esprit linguistique. Asp, 23/26, p. 323-333. 4 bibliothèque, un dictionnaire ou une encyclopédie, jusqu’au central téléphonique, entre autres. Toutes ces métaphores ont leurs propres problèmes — en particulier, elles suggèrent un endroit fixe où sont placés les informations différentes ; les informations sont placées soit en désordre, soit selon un seul critère, par exemple en ordre alphabétique ; l’utilisateur se promène dedans pour trouver ce dont il a besoin, ou bien il y accède grâce à un index, fichier, catalogue ou autre système central ; cet utilisateur est une sorte de « homuncule » qui a son propre esprit... qui a son propre homuncule qui a son propre esprit, etc. Ces métaphores ont été abandonnées pour toutes ces raisons, et parce qu’elles ne reflètent pas la nature dynamique de l’esprit humain. D’autres métaphores tirent l’attention sur différents aspects de l’esprit : l’esprit est comme une éponge, dans la mesure où il peut absorber et rendre des informations, mais ne dit rien sur la structure de l’esprit ni les mécanismes responsables pour ces actes (Tooby et Cosmides 1992). L’esprit est comme un canif de l’armée suisse, dans la mesure où il dispose de différents outils (modules) afin d’accomplir différentes tâches (Mithen 1996). Un problème avec ce type de métaphore est qu’il est très rigide et fixé dès la naissance, ne laissant aucune place au développement de l’esprit individuel. L’arrivée de nouvelles technologies a apporté de nouvelles possibilités de métaphore, qui méritent une attention plus soigneuse. Dès son apparition et jusque dans les années ’80, la métaphore de l’ordinateur numérique dominait. Les parallèles entre l’esprit et l’ordinateur sont assez évidents, mais ce qui est évident n’est pas forcément juste. Depuis, des insuffisances très importantes ont été décelées, et elle est tombée en désuétude comme métaphore de l’esprit, bien qu’elle domine toujours dans de nombreuses autres situations (Aitchison 1994 : 152). A la différence de l’ordinateur, où le signal voyage presque à la vitesse de la lumière, la transmission du signal dans le cerveau est très lente ; il semble clair que de nombreux éléments de toutes sortes sont traités simultanément en parallèle dans l’esprit, et non pas en série comme pour un ordinateur. Un autre problème avec l’ordinateur comme métaphore est qu’il fonctionne avec un nombre fini d’états possibles, et ne peut donc pas rendre compte de la créativité et de l’imprévisibilité de l’esprit humain. L’ordinateur a un fonctionnement numérique binaire bien adapté à certains types de problème (1 / 0 ; A / B ; OUI / NON ; VRAI / FAUX...), tandis que nous avons tendance à un fonctionnement analogue (PLUS / MOINS, des nuances de GRIS...). Effectivement, plusieurs problèmes dans les modèles traditionnels psycholinguistiques sont le résultat d’une conception binaire, qui ne permettent pas de position intermédiaire. Ceci nous amène à l’informatique, une métaphore venue de la psychologie cognitive. L’esprit y est représenté comme un système d’entrée, de stockage, de traitement, et de sortie d’informations. Cette métaphore est très puissante, et nous fournit la plupart de la terminologie employée actuellement dans ce domaine. Les principaux inconvénients sont souvent le résultat d’une certaine mésentente : en tant que métaphore de l’esprit, l’informatique n’a rien à voir avec l’ordinateur. Si l’on compare toujours le cerveau ou l’esprit à un ordinateur, il est à cause de ce qu’ils font, et non pas à cause de ce qu’ils sont. Les philosophes ont longtemps débattu sur la distinction entre cerveau et esprit. Il serait tentant d’y voir une correspondance entre les éléments suivants : cerveau ordinateur neurologie matériel informatique > > > > esprit logiciels psychologie programmes informatiques Cependant, la séparation du cerveau et de l’esprit est maintenant une controverse largement démodée : la pensée change l’architecture même du cerveau, et les changements de Alex Boulton. 1999. Anciennes et nouvelles technologies: Métaphores de l’esprit linguistique. Asp, 23/26, p. 323-333. 5 l’architecture permettent la pensée. Les deux formulations sont justes, et il est ainsi impossible de dissocier l’esprit et le cerveau. Cette découverte a permis l’emploi du cerveau pour la dernière génération de métaphores pour l’esprit, un développement déjà très fructueux qui commence à concurrencer la métaphore de l’informatique. D’abord, cette métaphore laisse entendre une complexité accablante, facile à mettre en évidence à travers quelques chiffres : • • • • un neurone peut se déclencher jusqu’à cinquante mille fois par minute le cerveau dispose d’une centaine de milliards (1011) de neurones il existe cent mille milliards (1014) de connexions entre les neurones le tout est assuré par des millions de kilomètres de fibres nerveuses Pour mettre cela en perspective, il a été estimé que le nombre d’états possible d’un cerveau humain dépasse le nombre de particules élémentaires dans l’univers (Ramachandran et Blakeslee 1998 : 8). Cette vision de la complexité est renforcée par un élément clé de cette métaphore : le cerveau et l’esprit sont tous les deux des produits de l’évolution selon la théorie néodarwinienne. Cette perspective de la psychologie évolutionnaire (voir, par exemple, Barkow et al 1992) fait apparaître un esprit « bricolé » au cours du temps, comme (pour prendre une autre métaphore) une ville qui se construit au cours des siècles, maison par maison, rue par rue, avec une restructuration continue. Le résultat est d’une complexité phénoménale, et le tout fonctionne en parallèle, puisque c’est « dans la complexité [que] se trouve la compétence pour faire face à la diversité » (Besner et Johnston 1989 : 312). Nous apprenons ainsi que la quête sacrée d’une description complète d’une langue est ; plus important, la simplicité n’est plus la condition sine qua non d’une théorie psycholinguistique. Reseaux... informatiques et neurologiques
Grâce au développement de l’Internet, le terme « réseau » est un mot à la mode actuellement dans plusieurs domaines, dont la neurologie et l’informatique... et la psychologie. Dans ces trois cas, les noyaux sont représentés par des neurones, par des ordinateurs ou par des entrées d’informations ; ces noyaux sont interconnectés pour donner naissance à la structure qui est respectivement le cerveau, l’Internet, ou l’esprit. Mais, tandis qu’il est possible de visualiser le réseau Internet en deux dimensions, il est quasiment impossible de faire de même avec le cerveau, ou encore avec l’esprit. On peut facilement concevoir l’esprit comme un réseau d’informations multidimensionnel qui permet l’apprentissage, le stockage, le traitement et la récupération de ces informations. Les liens dépendent du fait que les entrées partagent certains traits. On peut partir du principe que toute entrée qui contient un trait donné sera liée à toute autre entrée contenant le même trait. Ainsi, les informations ne sont pas organisées en une simple liste, mais simultanément selon des critères multiples. Les expériences de rappel libre révèlent que presque tout ce qui peut servir à lier deux entrées peut être déployé (Greene 1987) ; les informations contenues dans les entrées sont donc de natures très diverses. En ce qui concerne le lexique mental, on peut concevoir l’existence de liens basés sur la phonologie, la graphie, la morphologie, l’étymologie, la grammaire, la sémantique, la traduction, etc (Boulton 1998). Le terme « réseau » était employé en psychologie bien avant le développement de l’Internet. Cela dit, puisque l’Internet et le cerveau servent actuellement de métaphores de l’esprit, et puisque les deux constituent deux visions très différentes d’un réseau, il est important de les distinguer. Quelle métaphore de l’esprit est plus appropriée — la nouvelle technologie de l’Internet, développée au début des années ’70, ou la technologie du cerveau humain, vieille de peut-être 100 000 ans?
Alex Boulton. 1999. Anciennes et nouvelles technologies: Métaphores de l’esprit linguistique. Asp, 23/26, p. 323-333. 6
Dans le contexte d’Internet, le réseau est composé de liens changeants — même virtuels — entre d’innombrables ordinateurs ; dans le contexte du cerveau, il représente les connexions synaptiques entre les neurones. Dans l’esprit, lorsqu’une entrée d’information en active une autre, le message est envoyé à travers une ou plusieurs connexions dans le réseau. Selon les différentes métaphores, une connexion pourrait être un chemin concret et durable entre deux entrées (comme les synapses et axones du cerveau), ou bien il pourrait être une « adresse » stockée à l’intérieur d’une entrée (comme sur Internet). L’envoi d’un signal est donc le résultat d’une instruction — soit « suivez chemin X » (métaphore neurologique) soit « trouvez adresse X » (métaphore informatique). Diverses fonctions psycholinguistiques ont été modélisées sur ordinateur ; il est presque ironique que le résultat ressemble beaucoup plus aux réseaux neurologiques qu’au réseau Internet. Brièvement, dans ces modèles, chaque entrée est équipée de détecteurs et / ou et de transmetteurs capables de recevoir et / ou d’émettre un signal. En récupération réceptive ou productive, l’ entrée avec les détecteurs les plus fortement activés dominera, et supprimera ainsi toute activité dans les autres entrées, et à ce moment-là, l’accès aura lieu. Sejnowski et Rosenberg (1987) nous ont fourni une des premières modélisations explicites de ce type de réseau, le programme NETTALK, où le système est programmé afin de découvrir la prononciation d’un mot anglais à partir de normes phonotactiques. Le réseau est simplement exposé à des données, et ne reçoit aucune règle pour l’aider — à vrai dire, le système ne saurait pas quoi faire d’une règle s’il en disposait. Tout comme le cerveau humain, ce type de modèle dit « connexionniste » fonctionne à base de régularités et d’irrégularités perçues, de traitement statistique, de probabilité, et de tendances générales, encore truffée d’exceptions, de flou, de redondance... et non pas à partir de règles formelles. Si nous pouvons nous permettre une évidence : un ordinateur n’est qu’un ordinateur ; deux ordinateurs reliés ne sont que deux ordinateurs reliés. C’est-à-dire, ils peuvent fonctionner isolément, ou ensemble. Cette évidence est importante parce qu’elle contraste avec le cas des entrées psychologiques, leurs équivalents métaphoriques. Dans l’esprit humain, le stockage durable de toute information dépend de ses liens avec d’autres informations : le système doit sa puissance aux connexions et à la structure du réseau. Pour cette raison, la « compétence » est plus que la somme des connaissances des données individuelles. Une entrée, comme un neurone, se définit par rapport à ses interconnexions ; comme un neurone, elle ne peut pas exister toute seule : Un neurone [...] ne peut vivre, fonctionner, exister, que s’il a pu créer des réseaux ou des circuits avec des congénères. De la qualité de ces réalisations découle le degré des performances du cerveau humain. (Robert 1994 : 52) Toutes les connexions dans l’esprit ne sont pas identiques. Comme les connexions neurologiques, ces liens psychologiques peuvent être : a) directs ou indirects (il n’y a pas d’équivalent d’un serveur web qui sert d’intermédiaire, les connexions s’effectuant directement d’une entrée à une autre, ou à travers d’autres entrées) b) plus ou moins forts c) plus ou moins nombreux d) qualitativement différents e) unidirectionnels ou bidirectionnels f) facilitateurs ou inhibiteurs Alex Boulton
. 1999. Anciennes et
nouvelles technologies
: Métaphores de l’esprit linguistique. Asp, 23/26, p. 323-333. 7
La facilité d’accès à une information dépend de la quantité et de la qualité de ses connexions. Les données les ieux connues sont celles qui sont le mieux intégrées dans l’esprit, qui disposent du plus grand nombre de connexions et des plus fortes. Certaines des entrées L1 sont liées directement, mais toutes le sont indirectement, et ce sont ces liens qui organisent le stock lexical. Paul Meara, dans ses Network Structures and Vocabulary Acquisition in a Foreign Language (1992), a recours a des théories mathématiques pour rendre cette complexité plus compréhensible. Prenons une autre métaphore, celle des Etats-Unis, avec ses quelques 250 millions d’habitants. Si nous supposons que chaque individu connaît mille personnes, la probabilité que deux personnes (A et B) désignées au hasard se connaissent est une sur 100 000. Par contre, il y a une chance sur 100 que ces deux personnes aient un ami commun (A connaît X, qui connaît B). Et la probabilité qu’elles soient liées par une seule maille supplémentaire dans la chaîne (A connaît X, qui connaît Y, qui connaît B) dépasse 99 chances sur 100. C’est-à-dire, dans un réseau de 250 millions d’éléments, et avec une valence de 1000 connexions, il est probable à 99% que deux éléments soient liés par trois connexions tout au plus. Si on estime à 50 000 le nombre d’unités lexicales connues par un locuteur (Nation 1990), et que chacune dispose d’une vingtaine de connexions, alors trois étapes seulement sépareraient deux entrées lexicales en moyenne. Associations En examinant différentes implications des métaphores de réseau informatique et neurologique, nous avons presque accidentellement décrit un modèle du lexique mental, basé sur un réseau d’entrées et de connexions (voir Boulton 1998 pour une analyse plus complète). Un des avantages de ce type de modèle est qu’il fait un lien explicite entre, d’un côté, les entrées dans un réseau de connexions (psychologiques) du modèle théorique, et de l’autre, les unités lexicales dans un réseau d’associations (de comportement) que l’on peut examiner directement dans des situations contrôlées. Alors, si les associations lexicales ont été très étudiées chez le locuteur natif, il n’en est pas de même pour l’apprenant. Là, il n’existe qu’une poignée de publications, datant souvent des années ’60 et ’70, la plupart d’entre elles cherchant simplement à démontrer que les associations L2 sont fondamentalement différentes de celles du natif monolingue. Depuis, cette forme de recherche a été largement abandonnée, sans raison évidente. Afin d’étudier les réseaux d’associations lexicales, nous avons récemment conçu une série d’expériences portant sur les associations lexicales chez les apprenants français de l’anglais L2 (Boulton 1998). Nous avons pu montrer en même temps la grande souplesse de ce type d’expérience : nous n’avons pas demandé des associations libres, préférant présenter des paires de mots ; les sujets devaient réfléchir à l’association entre chaque paire. L’intérêt de cette conception des associations « inverses » — où le stimulus et la réponse sont fournis tous les deux — est que la situation est beaucoup plus contrôlée. Plus tard, nous avons testé le rappel en présentant un seul mot de chaque paire : les sujets devaient donc retrouver l’autre mot qui l’accompagnait, ainsi que leurs propres associations. Brièvement, les résultats soutiennent un modèle comme celui que nous venons d’esquisser, avec des associations très diverses, ainsi que l’hypothèse qu’il existe des liens directs entre les unités lexicales de langues différentes. Nous avions par ailleurs divisé les sujets en quatre groupes avec différentes combinaisons linguistiques du stimulus et de la réponse ; ceci a permis de comparer les apprenants avec eux-mêmes dans différentes situations linguistiques. Bien qu’il existe des différences quantitatives selon la situation, elles ne semblent pas refléter des différences qualitatives entre les types d’associations dans les différentes situations. L’apprenant ressemble au natif ; les associations interlinguistiques ressemblent aux associations intralinguistiques. Alex Boulton. 1999. Anciennes et nouvelles technologies
: Métaphores de l’esprit linguistique. Asp, 23/26, p. 323-333. 8 D’autres expériences sont en cours. D’abord, en continuant avec des associations « inverses » nous avons sélectionné pour chaque stimulus trois réponses parmi les normes des locuteurs natifs. Les sujets ont comme tâche de classer ces réponses dans l’ordre de l’intimité de leur association avec le stimulus. S’ils ne réussissent pas dans l’ensemble, cela soutiendra l’opinion courante que les associations des apprenants sont très différentes de celles des natifs à cause d’une compétence lexicale fondamentalement différente. Par contre, si les sujets réussissent, on pourra penser que les différences apparentes lors des expériences classiques ne révèlent que des préférences différentes de la part des apprenants, mais non pas une incapacité linguistique. Ensuite, une expérience d’association libre plus traditionnelle, qui utilise une liste de mots pour laquelle il existe déjà des données pour des populations anglophones et (avec une traduction de la liste) des populations francophones ; la version française a également été utilisée auprès d’un groupe d’apprenants anglais du français L2. Ces expériences complètent le paradigme L2, et une première analyse révèle des réponses beaucoup plus homogènes que d’autres ne laisseraient entendre, et beaucoup plus semblables aux normes des locuteurs natifs. Finalement, ces mêmes étudiants ont fait la même expérience avec cette fois la traduction française de la liste ; en comparant les réponses anglaises et françaises, il sera possible de tester l’importance d’une simple traduction entre les unités des deux langues. Une chose qui apparaît clairement est l’influence de l’interculturel, de la culture internationale pour l’organisation des nombreux mots anglais connus aux étudiants dans des contextes linguistiques français (il ne s’agit pas d’emprunts proprement dits), notamment dans les domaines de l’ , du sport, des loisirs, etc (Boulton 1999). Toutes ces expériences ont été élaborées dans le contexte d’un modèle théorique rendu possible par la métaphore des réseaux. Conclusions
Les métaphores sont essentielles pour une compréhension facile de nouveaux concepts. Elles peuvent nous aider à l’élaboration de nouveaux modèles, et fournir de nouvelles pistes quant à des moyens de mettre ces modèles à l’épreuve. Toutefois, une dépendance aveugle est dangereuse. Malgré leur omniprésence et leur très grande utilité, les nouvelles technologies ont leurs propres limites, il ne s’agit pas d’une panacée dans la didactique des langues étrangères ; elles ne fournissent pas non plus des métaphores parfaites pour l’esprit humain. En fait, l’Internet ajoute peu d’éléments qui n’étaient pas déjà présents dans la métaphore d’un central téléphonique. Ainsi, le cerveau nous fournit une métaphore plus apte à rendre compte de la nature de l’esprit tel que nous l’avons décrit. Pour conclure avec un exemple : selon des théories récentes, le cerveau humain crée des modèles du monde à partir de petites bribes d’informations perçues et traitées, et nous fonctionnons par rapport à ce monde « virtuel ». En outre, selon Dawkins (1998), le cerveau se sert de toutes les idées que nous avons afin de créer un « soi virtuel ». Mais il y a une grande différence entre le cerveau et l’Internet : le cerveau a donné naissance à l’esprit humain, qui est le résultat du « hasard » de l’évolution ; il serait par contre douteux de prétendre que le réseau Internet puisse accidentellement atteindre une « conscience » ou un « soi » lorsqu’il dépassera une taille critique...
Références bibliographiques Aitchison, J. 1994. Words in the Mind: An Introduction to the Mental Lexicon (2nd edition). Oxford: Basil Blackwell. Barkow, J.H., Cosmides, L. & by, J. (eds) 1992. The Adapted Mind: Evolutionary Psychology and the Generation of Culture. Oxford: Oxford University Press. Alex Boulton. 1999. Anciennes et nouvelles technologies: Métaphores de l’esprit linguistique. Asp, 23/26, p. 323-333. 9 Besner, D. & Johnston, J.C. 1989. Reading and the mental lexicon: On the uptake of visual information. Dans Marslen-Wilson, W.D. (ed) Lexical Representation and Process. Cambridge MA: MIT Press, p. 291-316. Boulton, A. 1998. Le Lexique Mental L2: Connexions et Associations. Nancy: Université de Nancy 2 (thèse inédite de doctorat). Boulton, A. 1999. Associations lexicales interculturelles. Communication au 27ème Congrès UPLEGESS, Evry. Dawkins, R. 1998. Unweaving the Rainbow. Harmondsworth: Penguin. Deacon, T.W. 1997. The Symbolic Species: The Co-Evolution of Language and the Human Brain. London: Allen Lane / Penguin Books. Greene, J. 1987. Memory, Thinking and Language. London: Methuen. Lakoff, G. & Johnson, M. 1980. Metaphors we Live by. Chicago: University of Chicago Press. McCarthy, M.J. 1990. Vocabulary. Oxford: Oxford University Press. Meara, P. 1992. Network structures and vocabulary acquisition in a foreign language. Dans Arnaud, P.J.L. & Béjoint, H. (eds) Vocabulary and Applied Linguistics. London: Macmillan, p. 62-70. Mithen, S. 1996. The Prehistory of the Mind. London: Thames & Hudson / Phoenix. Nation, I.S.P. 1990. Teaching and Learning Vocabulary. Rowley MA: Newbury House. Ramachandram, V.S. & Blakeslee, S. 1998. Phantoms in the Brain: Human Nature and the Architecture of the Mind. London: Fourth Estate. Robert, J-M. 1994. Le Cerveau. Paris: Flammarion. Sejnowski, T.J. & Rosenberg, C.R. 1987. Parallel networks that learn to pronounce English text. Complex Systems, 1, p. 145-168. Tooby, J. & Cosmides, L. 1992. The psychological foundations of culture. Dans Barkow, J.H., Cosmides, L. & Tooby J. (eds) The Adapted Mind: Evolutionary Psychology and the Generation of Culture. Oxford: Oxford University Press, p. 19-136. Alex Boulton. 1999. Anciennes et nouvelles technologies: Métaphores de l’esprit linguistique. Asp, 23/26, p. 323-333.
| 51,754
|
tel-03726244-BOURGES.txt_21
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,022
|
La distinction du produit agricole et du produit agroalimentaire dans la dynamique du droit rural. Droit. Université Panthéon-Sorbonne - Paris I, 2013. Français. ⟨NNT : 2013PA010266⟩. ⟨tel-03726244⟩
|
None
|
French
|
Spoken
| 7,824
| 12,964
|
Malgré tout encadrement ou orientation de l’action des États, ils sont en droit et ont le devoir de réagir face au danger auquel ses citoyens peuvent être exposés. Les différentes situations et crises ont insisté sur la nécessité de prévoir l’adoption des mesures de précaution. Pour éviter, encore une fois, un accourcissement vers le protectionisme, des règles ont essaie de le réglementer.
(3) LE PRINCIPE DE PRECAUTION : UN INSTRUMENT POUR LA PROTECTION DE LA SANTE
913 Echols, M.A., Food safety and the WTO, Kluwer Law International, London, 2001, p.44. Spriggs, John; Isaac, Grant: Food safety and international competitiveness: the case of beef, Cabi Publishing, 2001, UK, 16. 914 Signalons le danger que représente la possibilité de breveter des connaissances appartenant au patrimoine indigène ou social pour certaines communautés. 915 Concept maintenu par l’OCDE: Safety evaluation of foods derived from modern biotechnology: concepts and principles, Paris, 1993. 916 Echols, Marsha A., Food safety and the WTO, op.cit., p.60: les États-Unis reconnaissent un gène comme gènéralement reconnu comme sûr (generally recognized as safe - GRAS).
Dernièrement, les États-Unis ont imposé une procédure de pré-marché pour les additifs sous la section 409 du Federal Food, Drug and Cosmetic Act. Le Canada exige une notification pré-marché et l’UE une approbation
. 917 Ibid., p.3, 44, 45: l’auteur signale la demande
d’une plus grande reconnaissance des différences nationales. Dans Beef Hormones, l’ORD a imposé une conception attachée aux règles, c’est-à-dire qu’il a écarté une conception sociologique culturelle et a considéré comme étant essentielle la procédure d’évaluation des risques et la base scientifique d’ mesure restrictive. 918 L’utilisation des hormones, de la biotechnologie, qui ont généré et génèrent de vifs débats sociaux. 293 La distinction du produit agricole et agroalimentaire dans la dynamique du droit rural
L’extension du champ d’application du principe de précaution au domaine alimentaire, tardive par rapport au secteur environnemental919, est la conséquence naturelle de la vision anthropocentriste qui l’inspire et de la tendance à lui conférer une portée générale et à l’appliquer de manière extensive920. Malgré sa présence explicite dans certains textes, le principe était surtout implicite et déduit par interprétation doctrinale. Les problèmes provenant des dernières décennies du XXème siècle ont contribué à ce phénomène en déclenchant une demande sociale pour que le principe dépasse son cadre initial d’application limité au domaine environnemental et il soit appliqué dans le domaine alimentaire. En droit international, cela suscite des controverses, vu la possibilité de l’invoquer pour entraver le commerce (a), à la différence de la « reconnaissance » ouverte en droit communautaire (b). Enfin, la définition devient essentielle pour le limiter et propager son utilisation dès que nécessaire (c). Son application dans le droit agroalimentaire a trouvé sa cible phare dans les produits génétiquement modifiés (d), qui peuvent être à l’origine des problèmes tant sanitaires qu’environementaux. (a) EN DROIT INTERNATIONAL
Le système des règles de l’OMC prescrit le principe de traitement national pour des produits similaires. Il se base sur l’interdiction d’imposer les mesures appliquées de façon à constituer, soit un moyen de discrimination arbitraire ou injustifiable entre les pays où existent les mêmes conditions de sécurité, soit une restriction déguisée au commerce international (art. XX, GATT). Cependant, la même règle ouvre la porte aux préoccupations non commerciales921, en prévoyant une dérogation au principe général (interdiction de mesures restrictives) et en acceptant qu’un État puisse adopter ou appliquer des « mesures nécessaires à la protection de la santé et de la vie des personnes et des animaux ou à la préservation des végétaux ». Il convient de signaler que les conditions de non-discrimination et de non-protectionnisme sont maintenues, même eu égard à la dérogation922. 919 En principe, il paraissait réservé au seul domaine environnemental, CE, arrêt du 29 septembre 1995, Assoc. Greenpeace France, eq. N°171277, AJDA, 20 octobre 1995, p.749, V. concl. Sanson, RD publ., 1995, p.257. 920 Cans, Chantal, Grande et petite histoire des principes généraux du droit de l’environnement dans la loi du 2 février 1995, Rev.jur.env. 2/1995, p.193. 921 V. aussi art.5.3 SPS. 922 OMC, Organe d’appel, Rapport, États Unis – Prohibition à l’importation de certaines crevettes et de certains produits à la base de crevettes, WT/DS58/AB/R, du 12 octobre 1998, §165, 172, 173, 176, 181, 186. 294 La distinction du produit agricole et agroalimentaire dans la dynamique du droit rural
La possibilité dérogatoire implique l’analyse des produits en question de manière comparative et individuelle, tout en considérant les caractéristiques inhérentes à chacun de ces produits923, sans que la restriction porte sur la réglementation globale ou les politiques applicables dans un domaine déterminé924, car il est inadmissible qu’un État membre ne détermine unilatéralement les politiques applicables à ses partenaires commerciaux. Ce raisonnement est applicable aux articles XXb et XXg GATT925. Les précédents de l’ORD permettraient une application éventuelle du principe de précaution, si on invoquait le risque incertain, potentiel, intrinsèque et inhérent au produit justifiant une telle mesure. Afin d’encadrer les dérogations en vertu de l’article XX GATT, les accords de Marrakech incluent l’Accord SPS, dans l’intention d’harmoniser les conditions pour qu’une mesure sanitaire ou phytosanitaire ne soit pas considérée comme protectionniste926 ; cela ne signifie pas pour autant que l’Accord veuille uniformiser les mesures, puisque le niveau de protection reste au libre choix des États927, sans qu’ils soient obligés de suivre une position scientifique dominante. L’accord englobe toutes les mesures qui ont pour but de protéger la santé (hommes, animaux et plantes), à l’égard de certains types de produits (animaux, plantes, additifs, contaminants, toxines, organismes pathogènes présents dans les produits alimentaires, boissons ou aliments pour animaux), et il établit la nécessité d’une évaluation de risque pour pouvoir les fonder scientifiquement, ainsi que le respect du principe d’équivalence de la mesure928. L’Accord a pour objectif d’assurer qu’une mesure soit mise en place sur la base de critères objectifs et que la protection de la santé soit motif réel sous-jacent. OMC, Organe d’appel, Rapport, Communautés européennes – mesures affectant l’amiante et les produits en contenant, WT/DS135/AB/R, du 12 mars 2001, §151. Dans ce cas, le caractère cancérigène des fibres d’amiante avait été démontré. Ici, le risque est susceptible d’être assimilé à une caractéristique du produit. 924 OMC
, Organe
d’appel
, Rapport, États Unis – Pro
hibition à l’importation de certaines crevettes et de certains produits à la base de crevettes, WT/DS58/AB/R
, du
12
octobre
1998, §164. 925 Schoenbaum, T., International Trade and Protection of the Environment. The continuing search for reconciliation, American Journal of International Law, 1997, vol.91, p.268. L’OMC a précisé « qu’
il
ne
faut
pas
lire
l’Accord général en
l’isolant cliniquement du droit international public »
(Organe d’appel, rapport États Unis – normes concernant l
’essence
nouvelle et ancienne
formule
s,
WT
/
DS
2/AB/R, du 29 avril 1996. V. Maljean- Dubois, Sandrine, Biodiversité, biotechnologies, biosécurité ; le droit international désarticulé, JDI 4/2000, p.949. 926 Alemanno, Alberto, Le principe de précaution en droit communautaire, Revue du droit de l’Union européenne, 4/2001, p.917 : « ce principe semble réveiller les « démons du protectionnisme ». 927 V. : Didier, P. Le principe de précaution : une approche communautaire et internationale, JTDE, n° 69, 2000, p.118. Id., Le règlement des différends commerciaux internationaux par l’organisation mondiale du commerce (1 octobre 1998 – 30 septembre 2000), JTDE, n° 74, 20000, p.238. 928 Art. 4.1 SPS. L’accord demande de reconnaître qu’un même résultat
être atteint de diverses manières entre les États. Il faut adopter la mesure la moins entravante pour le commerce international et ayant un résultat équivalent de celui atteint. La distinction du produit agricole et agroalimentaire dans la dynamique du droit rural
La reconnaissance implicite du principe de précaution929 (art.5.7 SPS) crée une autorisation de réagir face à un danger en se fondant sur un début de preuve scientifique930 (rejet de l’approche maximaliste), et impose l’obligation d’entreprendre une analyse des risques (art.3.3 SPS). Le principe n’outrepasse pas le cadre des articles 5.1 et 5.2., c’est-àdire que les règles sont d’interprétation stricte, restrictive et n’ont aucune portée générale931 n’est reconnue. Toutefois, l’incertitude scientifique est introduite et permet de déroger à la règle de la preuve scientifique suffisante, tout en permettant de prendre des mesures restrictives sous certaines conditions cumulatives et d’égale importance932, aux fins de déterminer la compatibilité de la prescription dérogatoire (l’état de la science, la nécessité de la mesure et son caractère transitoire suivi de son réexamen) avec le système933. Signalons l’importance de la place occupée par le Codex Alimentarius dans l’application du principe de précaution, depuis que les Accords de l’OMC l’ont imposé comme référence obligatoire934. Le Codex a pour objet d’édicter des normes internationales en matière alimentaire, en rendant compatible le libre-échange avec la sécurité alimentaire, tout en promouvant la loyauté commerciale. Tel apparaît le principe de précaution dans le cadre du droit international. Nous allons voir que ce principe s’applique de façon plus ouverte en droit communautaire. González Vaqué, L. ; Ehring, L. et Jacquet, C., Le principe de précaution... opc.cit., p.119, à travers l’Accord SPS, « l’ordre juridique international fut le premier à franchir le pas de la consécration explicite de ce principe dans des instruments relatifs à la protection de la santé ». 930 L’incertitude débute avec des renseignements disponibles, émanant des organisations internationales compétentes et d’autres encore découlant des mesures sanitaires ou phytosanitaires appliquées par d'autres membres. 931 OMC, Organe d’Appel, rapport, EC measures concerning meat and meat products, WT/DS48/AB/R, du 16 janvier 1998, §125. 932 La faculté, pour les États membres, d’appliquer des mesures de protection est conditionnée à qu’elle soit appuyée sur des renseignements disponibles pour déterminer l’existence d’un risque réel et pas seulement hypothétique, à avoir des preuves scientifiques insuffisantes, au caractère nécessaire de la mesure, à qu’elles soient maintenues de manière temporelle, et, par la suite, d’essayer d’obtenir des renseignements additionnels nécessaires pour procéder à une évaluation plus objective du risque afin de réexaminer la mesure prise dans un délai raisonnable. Il est donc quelque peu difficile de prouver ces quatre conditions pour un simple doute scientifique comme fondement. Cependant, les mesures prises dans ces circonstances sont, après tout, le corollaire du droit reconnu aux États d’établir leur niveau approprié de protection de la santé et de l’environnement (préambule SPS)
933 Art. 5.7 SPS. OMC, Organe d’Appel, rapport Japon – mesures visant les produits agricoles, WT/DS76/AB/R, du 22 février 1999, §89. Après le rapport sur la viande aux hormones,
l’
Organe d’Appel a laissé passer l’occasion de se prononcer sur l’objet et la valeur du principe de précaution. V. Wecke, Ph., Rapport de l’organe d’appel de l’OMC du 22 février 1999, RGDI publ. 1/2000, p.250. Ruiz Fabri, H., La prise en compte du principe de précaution par l’OMC, Rev.jur.env., n° spécial 2000, p.55. Noiville, C., Principe de précaution et OMC : le cas du commerce alimentaire, JDI, 2/2000, p.263 Bossis, G., La notion de sécurité alimentaire selon l’OMC : entre minoration et tolérance timide, RGDI, publ.2/2001, p.333. 934 Accord SPS, art.12, leur respect donne une présomption de compatibilité avec l’Accord.. La distinction du produit agricole et agroalimentaire dans la dynamique du droit rural (b) EN DROIT COMMUNAUTAIRE
La portée attribuée au principe de précaution en droit communautaire dans le domaine de la santé ne ressort toutefois pas directement du texte du Traité ; elle exige un exercice d’interprétation. L’application du principe a été prévue dans le domaine environnemental (article 174 TCE / 191 TFUE). Pour l’appliquer dans le domaine de la santé on a raccourci au dit article qui inclut la protection de la santé comme un des objectifs de la politique de l’environnement, et au principe d’intégration (introduit par le Traité de Maastricht à l’article 130R.2935) établi dans l’article 6 TCE / 11 TFUE. Ainsi, par le biais de cet article, la Communauté peut agir dans le domaine de la santé lorsqu’elle protège l’environnement936. D’autre part, à travers l’article 152.1 CE / 168 TFUE, la protection de la santé doit être « intégrée » dans toutes les actions et politiques communautaires, telles que la protection des consommateurs et la PAC937. Même dans le cadre du rapprochement des législations (article 95 CE /114 TFUE), on vise à atteindre un niveau élevé de protection938 et le fondement scientifique de toute mesure. Ainsi, la protection de la santé publique devient une exigence transversale939. Le Traité présente le principe de précaution comme un principe d’orientation, qui, en utilisant l’indicatif – celui-ci équivalant en droit à l’impératif – devient obligatoire pour les institutions940. Pour la doctrine, il se limite à la politique environnementale, car si le principe d’intégration permet l’inclusion de la politique environnementale dans toute autre politique ou action communautaire, cela ne signifie pas que ses principes, incluant celui de précaution, 935 Conseil européen, Nice du 7 au 9 décembre 2000, Conclusions de la Présidence, point 35, a confirmé “la nécessité de développer rapidement et complètement les principes introduits par le Traité d’Amsterdam, qu’impose un haut niveau de protection de la santé humaine dans la définition et application des toutes les politiques et actions de la Communauté ». 936 Gonzalez Vaqué, L. ; Ehring, L. ; Jacquet, C., Le principe de précaution..., op.cit., p.104. 937 CJ, 23 février 1988, aff. C-68-86 et 131/86, Royaume Uni c/ Conseil, Rec. 1988, p.858, la réalisation des objectifs de la PAC implique la prise en compte des objectifs de protection de la santé publique et de l’environnement. Gencarelli, F., La politique agricole commune et les autres politiques communautaires : la nouvelle frontières, RDUE, 1/2001, p.173. Cependant, le Traité de Maastricht a soustrait l’adoption des mesures vétérinaires et phytosanitaires ayant directement pour objectif la protection de la santé publique, désormais régies par la procédure de codécision (article 152.4 b Traité CE). 938 L’article 153.3 TCE prévoit des mesures adoptées en application de l’article 95 dans le cadre de l’article 14.4 pour contribuer à la protection des consommateurs.
939 Martin
,
Précaution et évolution
du droit
, dans Godard, Olivier, Le
principe de
précaution
, EMSM, Paris, 1997
,
p
.
334
. «
un niveau élevé de protection de la santé aura probablement pour effet d’accroître le poids de la protection santé à la fois dans la définition et la mise en œuvre de toute politique et action communautaire ». 940 Ainsi, il a été incorporé dans la politique des consommateurs. La résolution du Conseil relative à la politique des consommateurs, 1999-2001, JO C206, 23 juillet 1999, p.1-3, invite la Commission
à se laisser
davantage guider, à l’avenir, par le
principe de précaution
dans le cadre de l’élaboration de propositions de législations liées à la politique des consommateurs. 297 La distinction du produit agricole et agroalimentaire dans la dynamique du droit rural soient appliqués de manière indépendante sans établir un lien avec la protection de l’environnement941. La Cour s’est référée à l’application du principe dans le contexte de la protection de la santé, pour la première fois, dans l’affaire ESB942, et a étendu son champ d’application au domaine de la santé, quoique cela ait été fait par le biais controversé de l’article 174 CE / 191 TFUE943. En outre, elle lui a reconnu la valeur d’un principe d’application générale, « lorsque des incertitudes subsistent quant à l'existence ou à la portée de risques pour la santé des personnes, les institutions peuvent prendre des mesures de protection sans avoir à attendre que la réalité et la gravité de ces risques soient pleinement démontrées » 944. De plus, elle a établi le lien entre deux domaines, la PAC et la santé945, et a ainsi permis de reconnaître la légalité des mesures prises par la Commission sur la base des directives 90/425/CEE et 89/662/CEE, adoptées en vertu de l’article 40 à 43 TCE / 46 à 49 TFUE946. Dans une interprétation plus large du Traité, nous pouvons indirectement déduire la possibilité d’appliquer le principe de précaution au domaine de la santé de l’article 152 CE / 168 TFUE et à d’autres normes du Traité, qui visent toujours un niveau élevé de protection sanitaire à travers des mesures d’amélioration et de prévention. 941 CJ, 5 mai 1998, aff. C-180/96, Royaume Uni/Commission,, Rec. 1998, p. I-002265, point 100 ; CJ, 5 mai 1998, aff. 157/96, National Farmers Union, Rec. 1998, p. I-002211, point 64. Gonzalez Vaqué, L. ; Ehring, L. ; Jacquet, C., Le principe de précaution... op.cit., p.104, les auteurs se rallient quand même au raisonnement de la Cour puisqu’elle a procuré la protection de la santé valeur de haut niveau. 942 La décision 96/239/CE du 27 mars 1996 a fait l’objet de deux recours au fond, dont l’un poursuivait l’annulation de ces mesures, CJ, 5 mai 1998, Royaume-Uni /Commission, aff.C-180/96, Rec.1998, p.I-2265, points 99 et 100 ; l’autre posait à la Cour une question préjudicielle relative à leur validité, CJ, 5 mai 1998, National Farmers’ Union, aff. C-157/96, Rec. 1998, p.I-2211, points 63 et 64. Déjà, l’ordonnance de référé, rejetant la demande de sursis, anticipe une évocation timide du principe de précaution, ord. 12 juillet 1996, Royaume-Uni/Commission, aff.180/96 R, Rec. P.I-3903, points 65, 69, 71, 73. TPICE, ord., 13 juillet 1996, aff. T-76/1996, National Farmers Union, Rec. 1996, p.II- 815. Ensuite, tant le Livre vert sur les principes généraux de la législation alimentaire dans l’Union européenne, que le Libre Blanc et la Communication de la Commission sur la santé du consommateur et la sûreté alimentaire et sur le principe de précaution, textes de soft law, ont démontré la volonté de la Commission de suivre le raisonnement de la CJ et d’intégrer la précaution comme critère d’analyse du risque, au stade de sa gestion, avant toute proposition réglementaire.
943 Gonzalez
Vaqué,
L. ; Ehring, L. ; Jacquet, C., Le principe de précaution... op.cit., p.104. Approche confirmée par le TPICE, 16 juillet 1998, Laboratoires pharmaceutiques Bergaderm SA et Jean-Jacques Goupil c/ Commission, Bergadem, aff.T-199/96, Rec. 2002, p.II-2905, point 62. 944 CJ, 5 mai 1998, aff. C-157/96, National Farmers’ Union, point 63; et aff.180/96, Royaume Uni, p. I02265, point 99. V TPICE
, 11
septembre 2002
,
aff
.
T-13/99
,
Pfizer, point 139 ; et TPICE, 11 septembre 2002, aff. T-70/99, Alpharma, point 135. TPICE, 16 juillet 1998, Bergaderm, T-199/96, point 66. 945 CJ, 5 mai 1998, Royaume Uni, aff. C-180/96, points 120, 121, notamment 97, 100, 133. CJ, 23 février 1988, Royaume-Uni c/Conseil, 68/86, Rec. p. 855, point 12. 946 CJ, arrêt du 5 octobre 1994, Allemagne c/Conseil, Bananes, aff. C-280/93, Rec. 1994 page I-04973, points 89 et s. : le pouvoir discrétionnaire
du
législateur correspond aux responsabilités politiques que les articles 40 à 43 du traité lui attribuent
. Cette approche a été suivie pour fonder la légitimité de la mesure ESB (CJ, 5 mai 1998, Royaume Uni, aff. C-180/96, point 97 et CJ, 5 mai 1998, National Farmers’ Union, aff. C-157/96, points 39 et 61)
. TPICE, 16 juillet 1998, Bergaderm, T-199/96, points 55 et 67. 298
La distinction du produit agricole et agroalimentaire dans la dynamique du droit rural
Le traité de Maastricht permet à l’action communautaire de rester dans la complémentarité par rapport à la compétence des États membres et les relie à un compromis de coopération à tous les niveaux. En principe, les États membres ont la compétence d’assurer la protection de la santé et la compétence communautaire reste toutefois limitée ; elle vise la santé en rapport avec le marché intérieur947. L’action étatique doit respecter les articles 28 et 30 CE / 34 et 36 TFUE, car une action de précaution d’un État peut constituer une entrave commerciale, raison pour laquelle elle mérite une interprétation restrictive. De côté de la Commission, les actes ont démontré une stratégie plus ambitieuse qu’une complémentarité948. La protection de la vie s’ancre dans les droits fondamentaux 949 et, en tant que tels, influence toute règle de droit communautaire950, tant dans son élaboration que dans l’appréciation des mesures dérogatoires951. Ainsi, selon la CJ, la protection de la santé et la vie des personnes occupent le premier rang des dérogations admises au titre de l’article 30 TCE / 36 TFUE952, qui n’impose aucune directive de type procédural. Cependant, il est nécessaire que l’invocation du principe de précaution, dans le cadre dudit article, par un État membre, soit soumise à des conditions953 afin qu’il ne soit pas l’utilisé pour échapper à ses propres obligations ou pour créer des entraves protectionnistes. Le danger dans l’application sans conditions du principe demeure dans l’hypothèse qu’un État mettrait en cause la libre circulation des marchandises en s’emparant de l’existence 947 Article 3, 152.1 et 174.2 CE. Ainsi, si le danger potentiel est limité à un État membre sans effets sur le marché intérieur, il reste difficile de justifier une mesure d’ordre communautaire sans violer le principe de subsidiarité (article 5 CE). 948 Gadbin, Daniel, Droit de l’alimentation et droit agricole européens : quelles articulations?, Riv.dir.agr., 2011, I, p.355, l’auteur signale qu’à partir de 2002 la stratégie européenne a pris une approche pluriannuelle, d’harmonisation complète et avec une préférence des règlements. 949 Article 2 et 3 de la Convention européenne de sauvegarde des droits de l’homme et des libertés fondamentales, et article 6§1 et 7 du Pacte international relatif aux droits civils et politiques, du 19 décembre 1966 (Recueil des traités, volume 999, p.171). 950 CJ, arrêt du 18 octobre
1989, Orkem, aff.374/87, point 28. 951 CJ, arrêt du 18 juin 1991, ERT, aff.C-260/89, Rec.1991, p.I-2925, point 43. CJ, 26 juin 1997, Familiapress, aff.C-368/95, Rec.1997, p.I-3689. point 24. 952 CJ, 20 mai 1976, de Peijper, aff.104/75, Rec. 1976, p.613, point 15. CJ, 16 avril 1991, Eurim-Pharm, aff.C-347/89, Rec. 1991, p.I-1747, point 26. CJ, 10 novembre 1994, aff. C-320/93, Ortscheit, Rec. 1994, p.I5243. CJ, 18 juin 1991, ERT, aff.C-260/89, Rec.1991, p.I-2925, point 43 ; (position temporellement abandonnée par CJ, 11 juillet 1985, Cinéthèque, aff. 60 et 61/84, Rec. 1985, p.2605, point 26). CJ, 26 juin 1997, Familiapress, aff.C-368/95, Rec.1997, p.I-3689. points 18, 24/26. Alemanno, Alberto, Le principe de précaution... op.cit., p.938, note 80 : l’auteur reconnait que la formulation de l’article 30 relativise « la portée de « nouveauté » généralement attribuée à ce principe
». 953 Néanmoins, selon la Cour, une méconnaissance manifeste et grave par les États des limites qui s’imposent à leur pouvoir d’appréciation ne conditionne que sa responsabilité pour des dommage causés aux particuliers par les violations du droit communautaire qui lui sont imputables - CJ, 5 mars 1996, Brasserie du Pêcheur et Factortame, aff.joints C-46/93 et C-48/93, Rec. 1996, p.I-1029, points 55 et 51. Commission/Allemagne, 12 mars 1987, aff.178/84, point 44, la Cour nie un pouvoir discrétionnaire aux États au-delà du choix du niveau de protection. 299 La distinction du produit agricole et agroalimentaire dans la dynamique du droit rural d’incertitudes scientifiques. Si cette allégation954 était suffisante, l’État qui l’invoquerait en bénéficierait et provoquerait un renversement de la charge de la preuve ; de ce fait le producteur ou opérateur économique devrait prouver l’innocu de son produit (par ex. dans le cas des additifs955), sans compter les coûts économiques qu’une telle situation occasionnerait. L’article 30 CE / 36 TFUE, comme toute exception est d’interprétation stricte956, la Communauté s’étant aussi réservée le droit de contrôler la portée de ces notions957. Les États membres doivent prouver les faits justifiant une dérogation958. La protection de la santé et la détermination du niveau de protection ont été reconnues comme appartenant aux États membres959, « à défaut d’harmonisation et dans la mesure où des incertitudes subsistent dans l’état actuel de la recherche scientifique » 960. Toutefois, on 954 Cour AELE, 5 avril 2001, EFTA Surveillance Authority c. Norvège, aff.E-3/00, points 5, 21, 30, 38. Le gouvernement norvégien a justifié sa législation interdisant toute importation et commercialisation de céréales enrichies aux vitamines par la nécessité de protéger la santé publique norvégienne en affirmant qu’en vertu du principe de précaution, il lui suffisait de fournir des documents attestant l’incertitude scientifique quant aux effets dangereux découlant du renforcement des produits alimentaires pour la santé humaine. La Cour a soutenu qu’une référence générale à un risque potentiel ne pouvait pas justifier l’interdiction d’un produit ; ensuite, elle a estimé que le gouvernement avait manqué à une évaluation complète et correcte des risques tout en respectant les principes demandés à toute mesure invoquant le principe de précaution (respect des principes de proportionnalité, non-discrimination, transparence cohérence – CJ, 14 juillet, 1983, Sandoz, aff.C-174/82). 955 CJ, 14 juillet 1983, Sandoz, aff.174/82. Bien que le producteur doive forunir les raisons techniques ou nutritionnelles qui justifient l’adjonction, la Cour impose aux États de s’activer en vue d’établir la dangerosité de l’additif qu’ils veulent interdire. 956 CJ, 5 octobre 1977, Tedeschi, aff. 5/77, point 54. CJ, 25 mars 1999, Commission c/ Rep.Italienne, aff.C112/97, Rec. p.I-1821, point 54. CJ, arrêt du 23 mai 1996, Hedey Lomas, aff.C-5/94, Rec.p.I-2553. Concl gén. Jean Mischo in National Farmers Union, points 80 à 109. CJ, arrêt du 19 décembre 1968, Salgoil, aff.13/68, Rec. 1968, p.661, 675. CJ, arrêt du 25 janvier 1977, Bauchuis, aff. 46/76, Rec. 1977, p.5, points 12-15. CJ, arrêt du 17 juin 1981, Commission c/Irlande, aff.113/80, Rec. 1981, p.1625, point 7. Mattera, Marché unique européen : ses règles, son fonctionnement, Jupiter, Paris, 1990, p.587 et 596. 957 CJ, 27 octobre 1977, Bouchereau, aff. C-30/77, Rec. 1977, p.1999, point : « ne saurait être déterminée unilatéralement par chacun des États membres sans contrôle des institutions de la Communauté ». 958 Communication de la commission concernant la libre circulation des denrées alimentaires à l’intérieur de la Communauté, JO C 271, 24 octobre 1989, p.3. González Vaqué, L. ; Ehring, L. et Jacquet, C., Le principe de précaution... op.cit., p.117, les auteurs considèrent que le principe
de
pre
uve de la
nécessité
de
la mesure
,
développ
é
par la Cour pour
l’article 90.2 CE (CJ, arrêt du 23 octobre 1997, Commission c/Pays-Bas, aff. C157/94, point 58. CJ, arrêt du 23 octobre 1997, Commission c/Italie, aff. C-158/94, point 54. CJ, arrêt du 23 octobre 1997, Commission c/ France, aff. C-159/94, point 101) est un principe général applicable à l’article 30TCE/36 TFUE et il incombe à l’État d’en démontrer la justification par des raisons de protection de la santé de la population (CJ (cinquième chambre), arrêt du 4 juin 1992, procédure pénale c/ Michel Debus, demandes de décision préjudicielle : Pretura circondariale di Pordenone et Pretura circondariale di Vigevano, Italie, aff. Jointes C-13/91
C-113/91, Rec. 1992 page I-03617, point 18. 959 CJ, 16 avril 1991, Eurim-Pharm, aff.c-347/89, point 26, les États membres ont le pouvoir et le devoir de protéger la santé. On parle d’une certaine marge de manœuvre des États, CJ, 30 novembre 1983, aff.C227/82, Bennekom, points 36 et 37. CJ, 10 décembre 1985, aff.247/84, Motte, point 19. CJ, 4 juin 1992, aff. Jointes C-13/91 et C-113/91, Debus, point 13. La Cour, toutefois, n’utilise pas de façon expresse le terme d’une marge de manœuvre amis seulement celui d’un choix, au contraire de Jarvis, The application of EC law by National Courts, The Free movement of goods, Clarendon Press, Oxford, 1998, p.256 (“margin of discretion”) et les Concl. av. gén. Elmer dans l’aff. C-189/95, Franzén, Rec. 1997, p.I-5909, point 109. 960 CJ, 14 juillet 1983, Sandoz, aff.174/82, Rec. 1982, p.3883. CJ, 12 mars 1987, Commission c/Allemagne, aff.178/84, point 44. CJ, arrêt du 5 février 2004, Commission c/France, aff.C-24/00, point 49. CJ, arrêt du 4 juin 1992, aff.13/91 et 131/91, Debus, Rec. 1992, p.3617, point 13. 300 La distinction du produit agricole et agroalimentaire dans la dynamique du droit rural requiert de leur part une prise en compte des exigences de libre circulation des marchandises961, et un respect des principes de proportionnalité962 et de nécessité963, ainsi que la preuve « que la commercialisation du produit en cause présente un risque sérieux pour la santé »964. Ici, nous venons de réunir les conditions auxquelles la réglementation d’un État membre invoquant un objectif légitime de protection de la santé doit se soumettre pour être valable, dans le cas où il n’existerait pas de règles d’harmonisation de la part de la Communauté ne. On a aussi reconnu l’impossibilité d’interdire sans qu’une procédure d’autorisation soit prévue965. Dans un domaine harmonisé, les institutions966 sont tenues de rechercher un niveau de protection élevé et de tenir compte de toute nouvelle évolution basée sur des faits scientifiques. De fait, l’action individuelle des État membres devient de plus en plus difficile, étant soumise à des conditions. La possibilité d’introduire des mesures nationales plus strictes doit donc être fondée sur des preuves scientifiques nouvelles967 (ce qui implique une procédure d’analyse des risques), relatives à la protection de l’environnement ou du milieu de travail (article 95§5 Traité CE /114 TFUE). Des preuves doivent démontrer la relation de cause à effet pour permettre à la Commission de déclencher les mécanismes d’application du 961 CJ, 30 novembre 1983, aff.C-227/82, Bennekom, point 36 et 37. CJ, 10 décembre 1985, aff.247/84, Motte, point 19. CJ, 4 juin 1992, aff. jointes C-13/91 et C-113/91, Debus, point 13. Quoique l’article 28 et 30 s’adressent uniquement aux États membres, cette liberté fondamentale doit être respectée également par les institutions communautaires (CJ, 17 mai 1984, Denkavit Nederland BV c/Hoofdproduktschap voor Akkerbouwprodukten, aff. C-15/83, Rec. 1984, p.2171, point 15. CJ, 9 août 1994, Meyhui, aff. C-51/93, Rec. 1994, p.I-3879, point 11). 962 CJ, 14 juillet 1983, Sandoz, aff. C-174/82, Rec. 1982, p.3883. CJ, 12 mars 1987, Commission c/Allemagne, aff.178/84, point 44. CJ, 4 juin 1992, Debus, aff.jointes C-13/91 et C-131/91, point 16. CJ, 5 mai 1998, Royaume Uni c/Commission, aff.C-180/96, Rec.1998, p.I-2265, points 63, 99; et CJ, 5 mai 1998, National Farmers’ Union, aff. C-157/96, point 63 : rappellent que principe de proportionnalité est un des principes généraux du droit communautaire. CJ, arrêt du 15 juillet 2004, DynaSvelte café, aff. C-239/02. 963 CJ, 14 juillet 1983, aff.174/82, Sandoz, Rec. 1982, p.3883. CJ, 12 mars 1987, Commission c/Allemagne, aff.178/84, Rec.p.3283, p.44. CJ, 10 décembre 1985, aff. 247/84, Motte, point 19. CJ, 4 juin 1992, aff.jointes C-13/91 et C-131/91, Debus, point 18. 964 CJ, 30 novembre 1983, aff.C-227/82, Bennekom, points 36-37. CJ, 10 décembre 1985, aff. 247/84, Motte, point 19. CJ, 4 juin 1992, aff.jointes C-13/91, Debus, point 13. Communication interprétative
« Produits
alimentaires », 4 octobre 1989, JO C
281, introduit le régi
me
applicable
jusqu’à l’entrée en vigueur des dispositions harmonisées aux mesures nationales restreignant la libre circulation des denrées alimentaires justifiées par des raisons de protection de la santé. La Communication a suivi la Cour (arrêt du 12 mars 1987, Commission /Allemagne, aff.178/84, Rec. 1987, p.3283). 965 CJ, 12 mars 1987, Commission c/Allemagne, aff.178/84, point 42 et s., la Cour signale qu’une législation restrictive répond « à un objectif légitime de politique sanitaire qui est de restreindre la consommation incontrolée d’additifs alimentaires » et qu’« une absence injustifiée d’autorisation doit pouvoir être mise en cause par les opérateurs économiques dans le cadre d’un recours juridictionnel ». 966 La Cour a toujours reconnu aux institutions communautaires un large pouvoir discrétionnaire en légiférant, CJ, arrêt du 25 mai 1978, Bayerische HNL, aff. jointes 83 et 94/76, 4, 15 et 40/77, Rec. 1978, p.1209, points 4-6. CJ, arrêt du 19 mai 1992, Mulder, aff.jointes C-104/89 et 37/90, Rec. 1992, p.I-3061, point 12. 967 CJ, arrêt du 21 mars 2000, Greenpeace France e.a. c
Ministère de l’Agriculture et de la Pêche, aff.C6/99, Greenpeace, points 37, 39, 44, 45, 75, 91. González Vaqué, Luis, El principio de precaución en la jurisprudencia del TJCE : la sentencia Greenpeace France, Comunidad Europea, février 2001, p.35. 301 La distinction du produit agricole et agroalimentaire dans la dynamique du droit rural principe de précaution. Il convient également d’informer la Commission qui reste très attentive aux mesures adoptées par les États et qui leur demande une justification, c’est-à-dire, la preuve scientifique suffisante attestant la spécificité de la situation de nature sanitaire ou environnementale interne à l’État968. Même la Cour a reconnu la possibilité aux États membres d’invoquer malgré tout le principe de précaution et à tout stade de la procédure, en apportant de nouvelles informations969. De plus, une fois passé le délai pour contester la légalité d’un acte communautaire d’harmonisation, un État membre ne peut critiquer sa légalité devant une juridiction nationale pour justifier une décision allant à l’encontre dudit acte970. Dans le respect du principe de reconnaissance mutuelle, la Commission a élaboré un système de notification préalable971 de tout projet de réglementation technique et d’information ex-post972 d’une mesure du même type, pour que la réglementation en cause reste dans les limites de la libre circulation des marchandises. Mais il appraît essentiel, pour l’application du principe de précaution, de se référer à une définition. Ce qui n’est exempté de difficultés.
(c) DE
FINITION 968 Décision (CE) n°1999/830 du 26 octobre 1999 relative aux dispositions nationales notifiées par le Danemark concernant l’emploi des sulfites, nitrites et nitrates dans les denrées alimentaires, JO L 329 du 22 décembre 1999, p. 1-14. Décision (CE)1999/5 de la Commission du 21 décembre 1999 relative aux dispositions nationales notifiées par le Royaume de la Suède concernant l’emploi de certains colorants et édulcorants dans les denrées alimentaires, JO L 3, 7 janvier 1999, p.13, point 28, la Commission affirme avoir imposé aux
és suédoises de « prouver l’existence et l’entité des facteurs génétiques, environnementaux ou liés à des habitudes alimentaires ». 969 CJ, arrêt du 21 mars 2000, Greenpeace France, aff.C-6/99, points 37, 39, 44, 45, 75, 91. González Vaqué, Luis, El principio de precaución en la jurisprudencia... op.
cit. 970 CJ, arrêt du 22 octobre 2002,
National Farmers’ Union
contre Secr
étariat
G
énéral
du gouvernement, aff. C-241/01. 971 Dir. 98/34/CE du Parlement européen et du Conseil du 22 juin 1998 prévoyant une procédure d’information dans le domaine des normes et réglementations techniques, JO L 204 du 21 juillet 1998, p.37. 972 Décision 1995/3052/CE du Parlement européen et du Conseil du 13 décembre 1995, établissant une procédure d'information mutuelle sur les mesures
nationales dérogeant au principe de libre circulation des marchandises
à l'intérieur de la
Communauté, JO L321 du 30 décembre 1995 p. 1-5.
Le rapport de la Commission au Conseil, au Parlement européen et au Comité économique et social relatif à la mise en œuvre de la décision 3052/95 en 1997 et 1998, COM (2000)194 final, point 3.4, analyse les cas de l’engagement possible d’un processus d’harmonisation. Alemanno, Alberto, Le principe de précaution... op.cit., p.951 : l’information « pourra se révéler la clé de voûte dans l’application du principe de précaution par les États membres, en fournissant la garantie que toute invocation du principe ne donne pas lieu à abus ».
302 La distinction du produit agricole et agroalimentaire dans la dynamique du droit rural
Ayant ainsi analysé les sources, on peut noter qu’il n’y a pas de définition unique du principe de précaution973, ce qui permet de relever des difficultés pour déterminer sa nature juridique ; toutefois, il est possible de cerner certains éléments qui s’avèrent permanents. Le principe de précaution est qualifié de standard974, de règle coutumière975, de simple prescription de caractère général976, de principe de conduite977 ou encore de principe L’inégalité des définitions se manifeste surtout sur la nature du risque générateur de l’adoption de mesures de précaution : dommages graves et irréversibles (déclaration de Rio de Janeiro, 1992 ; déclaration de Bergen, 1990) motifs raisonnables pour s’inquiéter (Convention sur la protection du milieu marin atlantique Nord-Est – 22-09-1992) bon rapport coût-efficacité auquel répondent les mesures de précaution (Convention sur le changement climatique, 09-05-1992-art.3§3) éventuels effets dommageables des substances les plus dangereuses (Déclaration ministérielle de la II conférence internationale de la mer du Nord). Même le Traité de Rome, dans son art.174 qui énonce le principe de précaution, n’en donne aucune définition. La différence réside aussi dans le résultat. La déclaration de Bergen ou du préambule de la Convention de la biodiversité biologique (1992), prévoit la possibilité de prendre des mesures lorsqu’il y a incertitude. D’autres énonciations exigent une décision ; l’absence est inadmissible (Convention de 1992 sur la protection de l’environnement marin dans la zone de la mer Baltique). La loi suédoise (1969) exige l’élimination de l’activité ou de la substance, sans prendre en compte d’autres éléments tels que le degré de dangerosité ou leurs bénéfices.
974 Boy, Laurence, La référence au principe de précaution et l’émergence de nouveaux modes de régulation?, LPA, n°4, 8 janvier 1997, p.4. 975 Il y a aussi eu de manifestations qui ne lui reconnaissaient pas de valeur coutumière, L. Lucchini, Le principe de précaution en droit-international de l’environnement, AFDE, 199, p.710. Dupuy, Pierre- , Où en est le droit international de l’environnement à la fin du siècle?, RGDI publ. 4/1997, p.873. 976 OMC, Organ , EC measure concerning meat and meat products, WT/DS48/AB/R, du 16 janvier 1998, §123, L’Organe d’Appel a considéré le principe de précaution comme une question importante mais abstraite. Commission, Communication de la Commission sur le recours au principe de précaution, COM (2000)1 final, du 2 février 2000 : le document signale l’évolution et la consécration en tant que principe de droit international de portée générale. La jurisprudence constante de la Cour européenne admet que les institutions communautaires puissent s’imposer des orientations pour l’exercice de leur pouvoir d’appréciation notamment par le biais de communications, dès lors qu’elles ne s’écartent pas des normes du traité. Dans deux cas, la TPICE a nié l’effet auto-limitatif sur le pouvoir d'appréciation et il a relevé un seul objectif d’informer la manière dont la Commission entendait appliquer le principe, puisque lors de l’adoption de l’acte litigieux, elle n’avait pas encore été publiée : TPICE, 11 septembre 2002, aff.T-13/99, Pfizer, points 111, 1119, 122. TPICE 11 septembre 2002, aff.T-70/99, Alpharma, points 132, 140, 143. La résolution du Conseil européen de Nice (décembre 2000) sur le principe de précaution, punto 1 : “se félicite pour l’iniciative de la Commission de présenter une communication sur le recours au principe de précaution, dont il partage l’orientation générale”. González Vaqué, L., La definición del contenido y ámbito de aplicación del principio de precaución en el derecho comunitario, Gaceta Jurídica n°221, septembre-octobre 2002, p.7: l’auteur considère la Communication très utile pour arriver à l’identification du contenu du principe de précaution. Remond-Gouilloud, Martine, L’incertitude et le droit, Responsabilité et environnement, n°2, 1996, p.101, pour l’auteur la précaution est seulement un mot, tout au plus une idée vague. Cameron, James et Abouchar, Juli, The status of the precautionary principle in international law, in Freestone, David et Hey, Ellen The precautionary principle and international law: the challenge of implementation, Kluwe Law International, La Haye, 1996, p.37. Un objectif de caractère général, pour von Moltke, le principe de précaution serait plutôt une directive pour le développement de la politique et non un mandat légalement obligatoire, The relationship between Policy, Science, Technology, Economics and Law, in the implementation of the Precautionary Principle, in Freestone et Hey, op.cit., p.106. 977 Document de travail des services de la Commission Science, société et citoyens en Europe, SEC(2000) 1973, 24 mars 2000, §3.2 : le principe de précaution « constitue un principe de action face à
l’incertitude
973 303 La distinction
du produit
agricol
e et agroalimentaire
dans la dynamique du droit rural d’orientation de l’action politique978. La Cour Internationale de Justice n’a pas pris position sur ledit principe979. Pourtant, elle
a reconnu le principe de prévention comme un principe de valeur juridique. Le principe de préc
aution
a aussi été reconnu comme principe juridi
que980, de caractère exceptionnel, et par conséquent, d’interprétation restrictive. Tant dans l’UE qu’à l’OMC, on a tenté de l’encadrer pour le rendre compatible avec les exigences du marché commun et du libre-échange respectivement visées. Nous considérons que la formulation en termes généraux, le caractère restrictif, la précocité dans l’invocation comme justification des mesures adoptées, sa vocation à articuler des intérêts différents, voire contradictoires981, sa traduction en technique procédurale pour la prise de décision à un niveau institutionnel avec des conditions qui varient d’un texte à l’autre, ont soulevé des doutes pour conférer ouvertement au principe de précaution la nature de principe juridique. scientifique ».
Franc, M. Traitement juridique du risque et principe de précaution, AJDA, 3 mars 2003, p.361, « une règle de comportement ». 978 Godard, Olivier, Le principe de précaution dans la conduite des affaires humaines, édit. Maison des Sciences de l’Homme, Paris, 1997, p.44 : « en l’état actuel des choses, la précaution est un principe moralement politique, mais ne constitue pas une règle juridique ». 979 Surtout à l’occasion des affaires Essais nucléaires II (CIJ, 22 septembre 1995, Nouvelle Zélande c/ France, Rec. CIJ, 1995, p.288 ; et Projet Gabcikovo-Nagymaros (CIJ, 25 septembre 1997, Hongrie c/ Slovaquie, Rec., CIJ, 1997, p.7, § 140, 111-114, ). 980 CJ, avis 2/00 du 6 décembre 2001, concernant la signature de l’Accord de la Communauté européenne sur la biodiversité, complété par le protocole de Carthagène, Rec.2001, point 29, confirme le principe de précaution comme principe fondamental du droit de l’environnement. TPICE, 21 octobre 2003, Solvay Pharmaceuticals BV c/ Conseil de l’Union Européenne et Commission des Communautés européennes, aff. T392/02, Solvay, Rec. 2003, p. II-04555, point 121 : « constitue un principe général du droit communautaire imposant aux autorités concernées de le prendre dans le cadre de l’exercice des compétences ». A.Laudon, C.Novelle, Le principe de précaution, le droit de l’environnement et l’OMC, Rapport remis au Ministère de l’environnement le 16 novembre 1998. P.Lascoumes, La précaution, un nouveau standard de jugement, Esprit, novembre 1997, p.129 et s., comme un standard de jugement. Luis González Vaqué, Lothar Ehring et Cyril Jacquet, Le principe de précaution dans la législation communautaire et nationale relative à la protection de la santé, Revue du Marché Unique Européen, 1/1999, p. 83 et 104. G.J. Martin, Précaution et évolution du droit, in Olivier Godard, Le principe de précaution dans la conduite des affaires humaines, édit. Maison des Sciences de l’Homme, Paris, 1997, 334. Icard, Philippe, Le principe de précaution façonné par le juge communautaire, Revue du Droit de l’Union Européenne, 1/2006, p.91 : « un concept essentiellement juridique », tous « s’en servent comme d’une formule magique susceptible d’expliquer toutes décisions de nature à contrecarrer la survenance d’un dommage entraînant la responsabilité de son auteur ». V. : Comité sur les principes généraux, du Codex. Boy, Laurence, La nature juridique du principe de précaution, NSS, 1999, vol.7, n°3. Lorvellec, L. et Collart Dutilleul, F., Principe de précaution et responsabilité dans le secteur alimentaire, in L. Lorvellec, Ecrits de droit rural et agroalimentaire, Paris, Dalloz, 2002, p.448 : affirmative si l’on conçoit « un principe comme une norme-guide, abstraite et de protée générale, qui, pour assurer le respect d’une valeur socialement admise, vise à orienter des décisions et des comportements ainsi qu’à apprécier », « le principe de précaution est au premier chef un principe-source en ce qu’il fédère un certain nombre de règles déjà existantes. 981 Cf. avec la clause d’articulation en droit international
. 304
La distinction du produit agricole et agroalimentaire dans la dynamique du droit rural
Le principe se manifeste surtout dans le domaine procédural institutionnel. En imposant certaines étapes dans le processus de prise de décision982, et en assurant le respect du principe du contradictoire (délais suffisants et invitation des personnes concernées à présenter leurs observations), on incorpore certaines valeurs contribuant à l’effectivité, mais surtout à la crédibilité du droit. Le processus décisionnel aboutit à l’adoption d’une mesure provisoire, proportionnelle et non discriminatoire face à un risque potentiel inacceptable. Le respect de la procédure et des caractères que doit « assumer » la mesure, garantissent la légalité du pouvoir discrétionnaire de l’autorité. Le caractère provisoire de la mesure permet de déclencher l’approfondissement de la recherche pour remédier à l’incapacité de donner, à cet état de la science, une réponse complète, soit sur le lien de causalité, soit sur la magnitude ou la spécificité du danger. En raison de ce deuxième volet, le principe de précaution est considéré comme un principe d’action983, dans la mesure où il incite toujours à la production de données scientifiques de nature à confirmer ou à infirmer l’existence d’un risque grave qui justifie la mesure adoptée ou son adaptation. La définition, la détermination claire du contenu ou des circonstances qui demandent l’application du principe de précaution acquièrent de l’importance puisqu’une telle délimitation démontre l’approche qui la soutient. Une approche maximaliste exige une preuve absolue d’innocuité pouvant conduire à paralyser l’activité économique984 et la recherche : il suffit de suspecter la substance ou l’activité. Une approche minimale demande la présence d’un risque à la fois probable et de nature à provoquer de graves dommages : il existe suffisamment de preuves de la dangerosité d’un produit. Enfin, une approche moyenne correspond à un risque incertain qui n’exclut pas un danger : absence de preuves scientifiques concluantes et adoption de mesures proportionnées985 prenant en compte d’autres intérêts légitimes. Ici, le risque devrait être suffisamment crédible et admis par une partie significative de l’opinion scientifique au moment de la prise de décision. L’application du principe démontre l’approche téléologique adoptée qui induit une décision modelée selon les valeurs qui prévalent dans la société986. Leur protection peut 982 Cour AELE, 5 avril 2001, EFTA Surveillance Authority c/Norvège, aff.E-3/00, point 30. CJ, arrêt du 5 février 2004, procédure pénale contre John Greenham et Léonard Abel, demande de décision préjudicielle, Tribunal de grande isntance de Paris, France, aff. C-95/01, Rec. 2004 page I-01333, point 50
. 983 Communication de la Commission, 2 février 2000, COM (2000)1 final, point 6.3.1. 984 Romero Melchor, Principio de precaución: principio de confusión?, Gaceta Jurídica de la UE, n°207, 2000, p.90-91. 985 Il faut
prendre en
compte
l’inexistance du risque z
éro
et un bon rapport
de
coûts
-
b
énéfices. 986 TPICE, 21 octobre 2003, aff. T-392/02, Solvay, point 125, « le recours ou l’absence de recours au principe de précaution dépend du niveau de protection choisi par l’autorité compétente dans l’exercice de son 305 La distinction du produit agricole et agroalimentaire dans la dynamique du droit rural différer suivant le niveau choisi par l’autorité publique, ce qui peut déjouer la recherche. La nature procédurale du principe ne nie pas le fait qu’il implique une mise en balance de diverses valeurs et surtout l’enjeu de les faire prévaloir les unes sur les autres. Enfin, il convient de distinguer l’approche basée sur la précaution de celle fondée sur la prévention. La mesure de sauvegarde préventive est prise quand il s’agit d’un risque avéré, identifié ; l’exemple le plus classique est la fixation de seuils et de plafonds, qui existent de longue date987. La mesure de précaution doit donc s’appliquer aux risques incertains ou non avérés, en exigeant une analyse de risque pour sa validité.
(i) L’analyse de risque, élément essentiel du principe de précaution
Si le noyau dur du principe suscitant de longs débats est l’incertitude autour du lien de causalité ou de la gravité du risque988, d’autres éléments essentiels et communs se présentent dans toutes les prescriptions visant l’application du principe989, comme l’attention particulière face à la gestion d’un risque inacceptable990 et les caractéristiques que les mesures de précaution doivent remplir pour être validées. Il est intéressant à ce stade, de traiter ces éléments primordiaux qui s’appliquent au principe de précaution, tout en se concentrant sur la législation européenne, notamment sur le pouvoir discrétionnaire ». Icard, Philippe, Le principe de précaution façonné par le juge communautaire, Revue
Droit de l’Union Européenne, 1/2006, p.109 : « le principe devient prescripteur en véhiculant des valeurs ».
| 39,307
|
tel-04396900-MOURY_2023_archivage.txt_4
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
Le muscle diaphragme dans les pathologies cardiovasculaires : évaluation, évolution clinique et mécanisme des atteintes. Médecine humaine et pathologie. Université Grenoble Alpes [2020-..], 2023. Français. ⟨NNT : 2023GRALS029⟩. ⟨tel-04396900⟩
|
None
|
French
|
Spoken
| 6,911
| 11,178
|
1.5.3.1 Extracorporeal Membrane Oxygenation (ECMO) et Épuration extracorporelle du CO2, Extracorporeal carbon dioxide removal : ECCO2R
L’intérêt des assistances extracorporelles pour la préservation du capitale musculaire est une question récente.229 A ce jour, des études de petits effectifs ont été réalisées montrant essentiellement l’impact de modification des paramètres de l’ECMO sur les variables d’intérêts physiologiques, nous n’avons pas retrouvé de données échographiques et histologiques.330,331,306 Il a été observé que la diminution du débit de gaz frais de l’assistance par une ECMO-VV s’accompagnait d’une augmentation du niveau de NAVA avec une correction de la PaCO2 concomitante. Ceci permet d’évoquer l’hypothèse d’une titration des efforts inspiratoire sur un niveau de NAVA en fonction de débit de gaz frais prescrit. En complément, le niveau de l’EAdi fourni par le même dispositif peut servir d’indice et a parfois été utilisé pour l’aide au sevrage de l’ECMO-VV dans cette indication.331 De la même façon, dans une étude italienne de Mauri et al, l’augmentation ou la baisse du débit de gaz frais s’accompagnait d’une évolution en sens inverse des variables associées à la commande respiratoire (de la pression d’occlusion, et NAVA), des efforts du patients (pression 89 inspiratoire maximal, pression musculaire) et des variables associées à la mécanique pulmonaire (volume courant, et de la pression transpulmonaire).306 L’ ECCO2R a été utilisé dans des études avec des effectifs restreints et devrait agir de manière similaire à l’ECMO-VV dans des populations hypoxémiques ayant développés une hypercapnie suite à la réduction des volumes courants.332–334 De ce fait une amélioration de la Pmus et de l’EAdi a été rapporté chez les patients porteur d’une BPCO en cours de décompensation aigue et en SDRA.335,336 En terme d’efficacité, un essai randomisé contrôlé récent n’a pas trouvé d’avantage significatif en termes de survie à 90 jours pour l’utilisation de l’ECCO2R bien que la durée de ventilation mécanique était certes moindre, les complications étaient plus fréquentes rendant compte de la complexité de la technique.337 Pour compléter ces données, à ce jour et à notre connaissance nous ne retrouvons pas d’étude de l’épaisseur du diaphragme sous assistance par méthode échographique, de la fraction d’épaississement et l’évaluation sous ECMO-VA n’est pas décrite. Cette dernière pour autant fournie une assistance en débit systémique, en épuration en CO2 et une oxygénation. La population d’intérêt de l’ECMO-VA présente également des caractéristiques de facteur de risque connue comme l’insuffisance cardiaque, chirurgie cardiaque, et la ventilation mécanique parmi d’autre. 1.5.3.1.1 Extubation sous assistance extracorporelle
Une extubation d’un patient sous assistance extracorporelle est intuitivement une exposition à des risques pour le patient. Pour autant, de nombreux centres ont évolués vers un libération de la ventilation mécanique précoce en ECMO-VV.62 Cette pratique est également fréquente dans le cas des ECMO-VA avec des études rétrospectives montrant un intérêt sur le devenir des patients.60,61 Les mobilisations avec kinésithérapie précoce ont montrées leurs sécurités dans des équipes entrainées.338,339 En ce qui concerne le diaphragme, nous ne retrouvons pas d’étude d’impact de l’extubation sous assistance extracorporelle. Intuitivement, les patients extubés sous assistance devraient garder une épaisseur stable.
Deuxième partie : Contribution personnelle 91 2.1 Objectifs scientifiques et hypothèses
Au cours de cette revue de la littérature, nous avons dressé un état des lieux des connaissances afin d'identifier certains éléments fondamentaux pour notre travail (Erreur! Source du renvoi introuvable.). Les descriptions des lésions du diaphragme sont rapportées en réanimation et en postopératoire de certaines interventions, ainsi que dans le contexte nosologique du sepsis. La ventilation mécanique, en tant que facteur clé, ainsi que les efforts respiratoires inadaptés, entraînent un traumatisme musculaire. De plus, le lien entre le choc cardiogénique et les atteintes du diaphragme n'est principalement évoqué que par des études animales, alors qu'un ensemble d'évidences détaillées relie l'insuffisance cardiaque aux altérations des fonctions des muscles respiratoires. Ces deux entités sont fréquentes en réanimation et jouent un rôle direct dans le sevrage de la ventilation mécanique. De plus, les supports circulatoires extracorporels avec membrane d'oxygénation et d' épuration du CO2 agissent comme des organes artificiels en remplaçant la fonction respiratoire et circulatoire de l'organe sans que l'impact sur l'effecteur principal du mouvement respiratoire, le muscle diaphragme, ne soit décrit. Figure 17 : Résumé des connaissances et des questions concernant les atteintes du diaphragme en pathologie cardiothoracique. Figure créée avec Biorender.com.
Dans le cadre de ce travail de thèse, l’objectif est de caractériser l’atteinte du diaphragme associée aux pathologies cardiothoraciques. Étant donné le rôle traumatique de la chirurgie cardiaque, une première étape consiste à décrire ce modèle chez des patients initialement non critiques nous semble déterminante. Ceci revêt d'autant plus d'intérêt que, par nature, il s'agit d'une procédure fréquente à risque. Elle expose des patients initialement exempts de dysfonctions majeures à des conséquences dont la gravité varie considérablement, ainsi qu'aux thérapeutiques de réanimation associées. Lors des étapes suivantes (c'est-à-dire lors des études 2 et 3), nous nous sommes intéressés à caractériser les atteintes du muscle diaphragme dans un modèle de patient critique. Pour ce faire, nous avons étudié 93 des patients en état de choc cardiogénique sévère sous assistance circulatoire. Nous avons constaté que les définitions du choc cardiogénique étaient souvent hétérogènes et il convient de noter que tous les patients ne nécessitent pas systématiquement des soins de réanimation, comme c'est le cas pour certains patients sous dobutamine en unité de soins intermédiaires. Il est donc important de définir un ensemble homogène de patients. Poursuivons en soulignant l'intérêt des résultats obtenus par l'équipe de Toronto, qui a établi un lien entre la contractilité du muscle diaphragme et les modifications de son épaisseur observées par échographie chez les patients sous ventilation mécanique.163,229 De plus, il est intéressant de noter que dans les premiers jours, la pression motrice variait de manière inverse à l'épaisseur du diaphragme : une diminution de l'épaisseur était associée à une pression motrice élevée, et vice versa. Par conséquent, étant donné la capacité des dispositifs d'assistance circulatoire extracorporelle à éliminer le CO2 et la possibilité d'obtenir un repos presque total du poumon, il est pertinent de se questionner sur l'impact de ces dispositifs sur le muscle diaphragme.340 Poursuivons maintenant en abordant les liens entre le choc et les atteintes du diaphragme, qui constituent un aspect intéressant à étudier pour la préservation des fonctions dans des conditions d'agression.8,9 C'est pourquoi nous avons choisi de nous concentrer sur les patients en choc cardiogénique sous ECMO-VA. Cette technique présente également l'avantage de permettre une extubation précoce sous assistance, ce qui nous permet d'évaluer des patients en dehors de la ventilation mécanique tout en étant soumis à une assistance qui intervient sur le débit systémique, l'oxygénation et la décarboxylation. Ainsi, progressivement, nous cherchons à comprendre les interactions entre l'organe et les organes artificiels dans des conditions reproductibles, ce qui nous permettra d'étudier la structure et la fonction et, éventuellement, de formuler des hypothèses sur des mesures de protection. Par conséquent, nous avons décidé que la deuxième étape de notre étude serait dédiée à l'identification des facteurs qui influencent la contraction dans le modèle patients critiques, lorsqu'ils atteignent un état stable correspondant au sevrage de l'assistance. Ensuite, la troisième étape consisterait à identifier directement une atteinte du muscle par des mesures échographiques. Sur la base des informations précédentes, nous pouvons formuler trois hypothèses : 1. La première hypothèse est que le muscle diaphragme présente une atteinte directe et altérée lors de la période périopératoire de la chirurgie cardiaque. 2. La deuxième hypothèse est que l'ECMO-VA interagit avec la contraction du muscle diaphragme via ses réglages de débit de gaz frais. 3. La troisième hypothèse est que les patients en choc cardiogénique traités par ECMO-VA présentent une atteinte directe du muscle diaphragme, qui est associée aux variations du débit de gaz frais. 95
2.2 Résultats et publications 2.2.1 Caractérisation en périopératoire de chirurgie cardiaques des atteintes du muscle diaphragme Rationnel
Nous avons choisi pour l’étude de la contractilité du diaphragme en périopératoire de chirurgie cardiaque l’évolution de la fraction d’épaississement. La mesure de l’épaisseur du diaphragme au niveau de la zone d’apposition avec le foie et secondairement le calcul de la fraction d’épaississement permet une évaluation reproductible, non invasive et que l’on peut aisément répéter chez un même patient. La chirurgie cardiaque permet, sur une cohorte conséquente, une analyse statistique d’intérêt combinée au recueil des variables périopératoires et démographiques. C’est lors de chirurgie réglée que les patients étaient inclus afin de garantir la reproductibilité des mesures et de disposer de mesures en préopératoires. La chirurgie cardiaque est une chirurgie pourvoyeuse de complication respiratoire et de dysfonction diaphragmatique postopératoire. Ainsi, les difficultés de sevrage de la ventilation mécanique interviennent dans certains cas. Nous nous sommes intéressés dans cette étude à la contractilité du muscle diaphragme par le biais du calcul de la fraction d’épaississement du diaphr me au cours du sevrage respiratoire ainsi qu’à l’évolution de son épaisseur en tant que marqueur de myotraumatisme. La méthodologie de l’étude est basée sur une analyse prospective de la fraction d’épaississement du diaphragme en périopératoire de chirurgie cardiaque réglée. Les patients étaient inclus la veille de l’opération. Une échographie du diaphragme était réalisée à j-1, le jour de l’épreuve de sevrage de la ventilation en postopératoire immédiat et à j+1 de l’intervention. Un calcul de la fraction d’épaississement était réalisé après mesure de l’épaisseur du diaphragme en fin d’expiration et en fin 96 d’inspiration. Les mesures au niveau de la zone d’apposition avec le foie servaient de référence et nous avions également choisis de réaliser des mesures au niveau de l’hypochondre gauche lorsque celles-ci étaient possibles. L’évolution de l’épaisseur du diaphragme entre J-1 et J+1 était évaluée selon trois modes : une diminution de plus de 10%, une augmentation de plus de 10% et une stabilité des mesures (entre 10% de diminution ou d’augmentation). Une fraction d’épaississement du diaphragme inférieur à 20% définissait une contractilité basse du diaphragme. Les résultats nous montrent que sur les 100 patients inclus dans l’analyse principale 75 avaient une contractilité basse pendant l’épreuve de ventilation spontanée. Les mesures sur les trois temps ont été possibles pour 66 patients. En comparaison à j-1 où la fraction d’épaississement était de 36% (± 18), la contractilité était significativement plus basse à le jour du sevrage (17% ±14) et à j+1 (12% ± 11) (P<0.0001). Nous avons retrouvé que 15% des patients inclus à J-1 avait une fraction d’épaississement inférieur à 20%. Il n’y avait pas de modification selon les méthodes de cardioprotection ou le type de chirurgie. La fraction d’épaississement pendant l’épreuve de sevrage était corrélée à la durée de la chirurgie (r = -0.4 ; P<0.0001). Elle était également corrélée à la durée de clampage (r =-0.3 ; P = 0.0007), et de circulation extracorporelle (r = -0.4 ; P < 0.0001). L’épaisseur du diaphragme en tant variable continue n’a pas été modifiée lors du suivi. Vingt-huit patients (42%) avaient une diminution de l’épaisseur, 19 (29%) une stabilité et 19 patients une augmentation de l’épaisseur. Également, une contractilité basse était associée à une oxygénation moins bonne avec une PaO2/FiO2 significativement inférieure (302 (66) versus 341 (89), P=0.02). Le mode d’évolution de l’épaisseur était associée à la durée de séjour 3 jours [2-5] versus 2 jours [2-4] and 2 jours [2-2] respectivement (ANOVA ; P=0.046) et également avec l’évolution de la fraction d’épaississement (ANOVA ; P=0.02). Deux patients ont eu un échec de sevrage et un patient est décédé. En conclusion, nous avons retrouvé une diminution fréquente de la fraction d’épaississement du diaphragme après une chirurgie cardiaque réglée sans pour autant qu’il y ait de lien avec le devenir des patients alors que le mode d’évolution de l’épaisseur du diaphragme était associé à la durée de séjour en réanimation.
Éléments supplémentaire Additional file 1 Left diaphragm analysis Material and methods
Left-hemidiaphragm measurement were completed during SBT with the same settings as for the right diaphragm. Bland-Altman graphs were used to compare right and left-hemidiaphragm. Results We performed a comparative analysis of the data obtained from the US measurements of the left and the right hemidiaphragm during SBT. This was possible in only 69 patients owing to a poor ultrasound window on the left hemi-diaphragm. Left and right TF were not different statistically (19 % and 17% (± 14), P=0.33) and correlated among this population (r = 0.57 [0.4-0.7]: P < 0.001, supplemental figure2). Discussion Comparison between the right and left hemi-diaphragm thickening present an acceptable correlation for the interpretation of the overall diaphragm mechanics. Despite a higher incidence of left mammary artery graft, the left TF was not lower. It questions the role of the surgical trauma in diaphragm palsy and the threshold of diaphragm thickening fraction of the left hemi-diaphragm.
Additional file 2: Individual values of the right hemi-diaphragm thickening fraction according to the left hemi-diaphragm thickening fraction. The right hemi-diaphragm thickening fraction (TF) during the spontaneous breathing trial (SBT) was reported according to the Y and left hemi
diaphragm thickening fraction (TF) during the SBT
according to the X (r = 0.57 [0.4-0.7]: P < 0.001).
Additional file 3: Bland-Altman plot. 2.2.2 Caractérisation de la contractilité du diaphragme chez le patient en sevrage d’une ECMO-VA après un choc cardiogénique Rationnel
La contractilité du diaphragme évolue en fonction des réglages de l’ECMO-VV d’après la littérature.306 Cette contractilité du diaphragme augmente avec la diminution du débit de gaz frais. Nous avons voulu étudié l’évolution de la contractilité dans le cadre de l’ECMO-VA. Pour autant, un certain nombre de facteurs confondants sont d’intérêt et nous interrogent sur leur lien avec la contractilité du diaphragme. La dépendance de la contractilité à l’hémodynamique du patient, dont la fonction systolique du ventricule gauche est un marqueur, et est une donnée peu explorée. Nous avons choisi d’étudier les patients au moment du sevrage de cette ECMO-VA à un débit identique pour chaque patient. Ainsi, une épreuve de diminution systématique du débit de gaz frais permettrait d’entrevoir son rôle dans la modulation de la performance du diaphragme et les effets de l’éjection propre du patient au moment de la récupération de sa fonction circulatoire. Nous avons étudié l’évolution de la contractilité du diaphragme par la fraction d’épaississement du diaphragme lors d’une diminution systématique du débit de gaz frais à l’occasion d’une épreuve de sevrage de l’ECMO VA. Cette étude monocentrique et prospective a été réalisée de façon à inclure consécutivement les patients respirant spontanément lors d’une épreuve de servage de l’ECMO-VA. La ventilation mécanique lorsqu’elle était présente était fixée à 0 cmH2O de PEP et 7 cmH2O d’aide inspiratoire. Les variables démographiques, la fraction d’éjection du ventricule gauche et le devenir des patients notamment sur le plan respiratoire étaient recueillies. Nous avons défini dans cette étude l’échec du servage de l’ECMOVA par le décès, la nécessité d’une assistance gauche de longue durée (LVAD) ou d’une greffe cardiaque. 111 Le débit de gaz frais était modifié par séquence de 15 min avec une mesure de la fraction d’épaississement à la fin du période au débit suivante 4 l/min, 2 l/min et 1 l/min. une période de 10-min de retour du débit à l’état basal était systématiquement entreprise entre chaque diminution. Sur les 15 patients inclus, 10 étaient extubés et 5 bénéficiaient toujours d’une ventilation mécanique. La fraction d’épaississement était de 6.3% [0-10] à 4 l/min, 13.3% [10-26] à 2 l/min et 26.7% [22-44] à 1 l/min (ANOVA, P<0.001 entre 4 et 2 l/min et P=0.03 entre 2 et 1 l/min). Une fraction d’épaississement <20% définissant une contractilité basse n’a été retrouvée que dans 6.7% des cas à un balayage minimal de 1% l/min. La fraction d’épaississement n’était pas différente que le patient soit ventilé ou non et qu’il y est succès ou pas du sevrage de l’ECMO-VA. La fraction d’épaississement était corrélée à la fraction d’éjection du ventricule gauche à 1 l/min de débit de gaz frais (Pearson R=0.67 [0.21-0.88] ; P=0.009) et à 2 l/min (R=0.7 [0.27-0.89] ; P=0.005 mais pas à 4 l/min. Après avoir ajusté avec la présence d’une cardiotomie (p = 0.202), d’un sepsis (p = 0.134), du statut d’extubation ou non (p = 0.980) et avec les 3 niveaux de débit de gaz frais, seul ce dernier modulait la relation entre fraction d’éjection du ventricule gauche et fraction d’épaississement (analyse de covariance, ANCOVA, P<0.005). Six patients ont eu un échec du sevrage de l’ECMO-VA. Il n’a pas été observé de différence significative entre le groupe succès de sevrage et échec de sevrage de l’ECMO-VA (39% [22-78] v 27% [21-30] ; p=0.46). Cet article décrit la fraction d’épaississement du diaphragme au moment du vrage de l’ECMO-VA. Nous avons formulé que la fraction d’épaississement du diaphragme était influencé 1) par le débit de gaz frais, 2) par la fraction d’éjection du ventricule gauche, 3) que rarement une contractilité basse (<20% de fraction d’épaississement) étaient présentes lors du sevrage, et 4) la contractilité du diaphragme n’était pas associée à un devenir péjoratif des patients. Article: “Diaphragm thickening during venoarterial extracorporeal membrane oxygenation weaning: an observational prospective study” 120 Éléments supplémentaire
Additional file Additional file 1
121 Additional file 2: Supplementary table 1: Demographic data, calculation of the primary endpoint and main outcomes for each patient. n° Age Sex e BMI SAPS2 (Day 0) 01 60 M 27 66 02 59 M 24 03 61 M 04 36 05 Reasons leading to ECMO treatment TF at 4 L/min (%) TF at 2 L/min (%) TF at 1 L/min (%) Patient extubated ECMO weaning trial reasons of failure ECMO weaning failure and reasons Cardiogenic shock secondary to myocardial ischemia 3.8 13.2 19.2 yes Left ventricle persistent failure Left ventricle persistent failure requiring an Impella® in bridge to LVAD 21 Primary dysfunction after heart transplant 6.3 35.3 93.8 yes NA Na 28 40 Cardiac suregery 0 5.6 17.9 yes NA NA F 24 42 Cardiogenic shock secondary to myocardial ischemia 10 28.8 72.2 yes NA NA 53 M 36 47 Cardiac arrest 17.1 10.7 29.6 no Neurologic Death after multiple organ failure 06 61 M 27 70 Cardiac surgery 16 90 115 no Respiratory distress NA 07 72 M 25 60 Cardiac surgery 0 5.1 20 yes NA NA 08 73 F 24 45 Cardiac surgery 18.2 31.6 38.9 no NA NA 09 62 M 32 27 Cardiac surgery 0 10.4 21.1 yes Left ventricle persistent failure Heart transplant 10 56 M 24 69 Cardiac surgery 5.3 7.2 26.7 yes Acute pulmonary oedema Death after septic shock and mesenteric ischemia 11 49 M 20 65 Cardiogenic shock secondary to myocardial ischemia 6.3 13.3 26.7 no Hypotension Left ventricle persistent failure requiring a heart transplant 12 66 M 17 50 Cardiogenic shock secondary to myocardial ischemia 10.5 12.3 25 yes NA NA 13 74 M 31 63 Cardiogenic shock secondary to myocardial ischemia 0 13.6 22.6 yes NA NA 14 48 M 24 61 Cardiac arrest 0 19.8 52.9 no NA NA 15 68 M 25 44 Cardiogenic shock secondary to myocardial ischemia 9.1 16.9 40.9 yes Left ventricle persistent failure Left ventricle persistent failure requiring an Impella® in bridge to LVAD BMI: Body mass index; SAPS2: Simplified Acute Physiology Score 2; ECMO: extracorporeal membrane oxygen
;
TF
: Thickening
fraction; LVAD: Left Ventricle Assist Device 122
Additional file 3 Additional file 3: Table of demographic and outcome descriptions according the ventilated/nonventilated status (.docx) 123
2.2.3 Caractérisation de l’évolution de l’épaisseur du diaphragme lors d’un choc cardiogénique sous ECMO-VA Article en cours de
revue dans Critical Care Explor
ations Rationnel
Dans la littérature, il est décrit chez le patient de réanimation sous ventilation mécanique que le muscle diaphragme présente des modifications de son épaisseur fréquentes dont le sens et l’amplitude serait fonction de l’évolution de sa contractilité.163 Également, la présence d’une atrophie est associée à un moins bon pronostic en réanimation grâce à des données échographiques.77 L’utilisation d’ECMO-VA permettant une décarboxylation, une oxygénation et d’assurer un débit systémique, l’hypothèse d’une possible modulation de la structure (épaisseur du diaphragme) et de sa performance (la contractilité) par l’utilisation de l’ECMO-VA est un intérêt soulevé par plusieurs auteurs dans le but de stratégie protectrice.45 Nous avons suivi l'évolution de l'épaisseur du diaphragme chez 29 patients sous ECMO-VA et regardé les facteurs associés à la survenue d'une atrophie (-10% de l'épaisseur entre la première et la dernière mesure), d’une augmentation (+10%) et d’une stabilité (entre -10 et + 10% ) jusqu'à 7 jours de l'implantation. L’échographie du diaphragme en mode TM au niveau de la zone d’apposition avec le foie permettait la mesure de l’épaisseur du diaphragme et de la fraction d’épaississement du diaphragme. Cette mesure était réalisée dans une position standardisée (30° par rapport au plan du lit) de façon quotidienne de J1 à J7 de l’implantation d’une ECMO-VA selon la présence d’un opérateur entrainé. 124 Sur le plan statistique, nous avons réalisé une analyse univariée comparant les patients selon les trois groupes d’évolution prédéfinie. Puis, nous avons étudié les associations entre évolution de l’épaisseur du diaphragme avec des facteurs prédéterminées selon leurs implications physiopathologiques. Enfin, le critère de jugement principal, l’évolution de l’épaisseur du diaphragme, était évalué selon un modèle linéaire à effet mixte. L’évolution de la fraction d’épaississement du diaphragme était évaluée selon la même méthodologie statistique. Cinq patients (17%) sont décédés avant j7 et 10 (34%) avant J60 de suivi pendant l’hospitalisation. Nous retrouvons la présence d’une atrophie du diaphragme chez 7 patients soit une fréquence relativement important de 23%, associée à une extubation retardée et une moins bonne survie à 2 mois. Quatre patients (17%) avaient une augmentation de l’épaisseur et 17 (60%) étaient restés stables. Il n'y avait pas de lien statistique entre évolution de l'épaisseur et contractilité du diaphragme. En analyse univariée, la dose de noradrénaline, le débit de gaz frais et la durée de ventilation mécanique avant J7 étaient significativement associées à la présence d’une atrophie. Trois variables étaient corrélées avec l’évolution de l’épaisseur en utilisant une corrélation par mesure répétée: le débit de gaz frais (r = 0.23, IC 95%: [0.01; 0.43], p-value = 0.039), la dose journalière d’insuline (r = 0.32, IC 95%: [0.14; 0.49], pvalue = 0.001), et le pH (r = -0.2, IC 95%: [-0.38; -0.01], p-value = 0.038. En utilisant un modèle linéaire à effet mixte, seul le pH et le balayage de l'ECMO interviennent de façon préférentielle sur l'évolution de l'épaisseur du diaphragme. L’évolution de la fraction d’épaississement dans le temps était en augmentation progressive de 5% [0; 13] à J1 jusqu’à 21% [17; 24] à J7. Cette contractilité du diaphragme, évaluée par le calcul de la fraction d’épaississement, est basse tout au long du suivi que nous retrouvions une atrophie ou non. L’épaisseur de diaphragme perdue à J7, évaluée en pourcentage de perte entre la première et la dernière mesure, était plus importe chez les patients décédés à J60 par rapport aux survivants (-11% [-18 ; -3] versus 0% [-5; 6]; p = 0.049). Les patients ayant une atrophie à J7 avaient un risque de mortalité plus importante avec un odds ratio de décès à J60 de 8.50 (1.39-74.09, p=0.029). Nous concluons à la présence d'une modification de l’épaisseur du muscle diaphragme médiée par la sévérité de la défaillance circulatoire et des désordres métaboliques associés. La régulation du débit de gaz frais, en permettant une extubation précoce, permettrait une préservation de l’épaisseur du diaphragme. La contractilité du diaphragme mesurée par la fraction d’épaississement du diaphragme est basse dès le premier jour. Le paradoxe intéressant que nous retrouvons est celui d’une possible prévention de l'atrophie du diaphragme à contractilité basse lors de l’utilisation d’une ECMO-VA.
127 128
129
3 Troisième partie : Discussion générale et perspectives 161
Les résultats des études exposées précédemment nous imposent un travail de synthèse et de discussion afin de les mettre en perspective par rapport aux éléments de la littérature scientifique. Enfin, nous tenterons d'exposer les futurs champs de recherche. Dans le tableau 3, nous avons représenté les principaux résultats des études de cette thèse. Dans ce travail de thèse, nous avons tenté de déterminer les éléments des conditions du mouvement de la ventilation à travers l'étude de la fonction, de la performance ou de la contractilité, ainsi que de la structure du muscle diaphragme dans ses relations avec des conditions hémodynamiques spécifiques.
Tableau 3 : Résultats principaux
Études Publications Objectifs Résultat principal Résultats secondaires
Fraction d’épaississement pendant l’épreuve de sevrage était corrélée à la durée de la chirurgie et de CEC. Évolution fréquente de l'épaisseur du diaphragme. L’épaisseur variait avec l'évolution de la contractilité Diagpublié dans Mesurer les modifications de la FE Une diminution La contractilité basse est ECMO Journal of pendant une diminution systématique du débit de rare au moment du sevrage; Cardiothoracic systématique du débit de gaz frais gaz frais provoque une Le débit de gaz frais module and Vascular lors du sevrage d'une ECMO VA augmentation de la FE l'influence de la FEVG sur Anesthesia la FE; La FE basse n'est pas associée à un devenir péjoratif AtrophyEn cours de Mesurer l'évolution de l'épaisseur L'évolution de l'épaisseur L'atrophie du diaphragme ECMO revue dans du diaphragme pendant la première du diaphragme est est associée à un devenir Critical Care semaine d'assistance par une fréquente et moins bon. Explorations ECMO VA associée à la variation du L'évolution de l'épaisseur débit de gaz frais est associée à la défaillance multiviscérale. Évolution de l'épaisseur et de la contractilité ne sont pas associées
Définitions des abréviations : FE : fraction d’épaississement du diaphragme (en %) ; CEC : circulation extracorporelle ; FEVG : fraction d’éjection du ventricule gauche ; ECMO-VA : extracorporeal membrane oxygénation veno-arterial Chirurgie cardiaque publié dans Annals of Intensive Care Mesurer l'incidence et les facteurs associés à une contractilité basse du diaphragme (FE< 20%) 75% de contractilité basse
3.1 Synthèse générale
Le mouvement de la respiration est associé aux propriétés des muscles respiratoires et circulatoires. Les propriétés que nous avons ici étudiées sont principalement l’épaisseur du muscle diaphragme mesurée par échographie et la performance par le biais d’un index de contractilité échographique, la fraction d’épaississement (Figure 18). En chirurgie cardiaque, nous rapportons que la contractilité est rapidement abaissée en lien avec la durée des procédures et de l’assistance. L’épaisseur du muscle évolue en corrélation avec la contractilité en périopératoire. D’après nos résultats, la contractilité du diaphragme est liée de la récupération de la fonction systolique des patients après un choc cardiogénique, des conditions des interventions et aux assistances circulatoires, notamment la durée (en chirurgie cardiaque) et l’épuration du CO2 par le débit de gaz frais sont des variables prédominantes. L’épaisseur varie avec la gravité des patients, la balance acide/base et l’assistance extracorporelle par ECMO-VA par le biais de l’épuration du CO2. Les modifications de l’épaisseur avec au premier plan la genèse d’une atrophie, plus que la diminution de performance, sont associées à une altération des fonctions respiratoires, se manifestant par des s plus longues et une évolution péjorative en réanimation. Figure 18 : Synthèse générale : le diaphragme
en pathologie cardiothoracique 3.2 Synthèse et perspective en chirurgie cardiaque
La contractilité ainsi que la structure du muscle diaphragme sont altérées en périopératoire de chirurgie cardiaque telles que nous pouvons les évaluées par échographie. Conditions stables et reproductibles, cardiopathies souvent sans choc initial, circulation extracorporelle et ventilation mécanique de courte durée, voici en résumé les conditions initiales de la chirurgie cardiaque. En résumé, ces interventions représentent un modèle d’étude idéal car elles intègrent également un continuum de gravité allant de patients asymptomatiques opérés dans les suites d’un dépistage systématique à des patients dont la criticité est extrême. Les informations complémentaires fournies par la littérature depuis la publication de notre article confirment en partie nos résultats concernant la dysfonction diaphragmatique en périopératoire de 164 chirurgie cardiaque.341 L’étude de Bruni et al utilisait la même définition de fraction d’épaississement du diaphragme pour qualifier la dysfonction diaphragmatique (fraction d’épaississement <20%), lors d’une évaluation du sevrage de la ventilation mécanique qui s’opérait à 0 cmH2O de pression expiratoire positive comme d’aide inspiratoire et a également étudié les patients jusqu’à la sortie de réanimation. Cette étude retrouvait une incidence de dysfonction diaphragmatique de 38%. Il est complexe d’identifier et de confirmer avec certitude ce qui rend compte de cette différence de 37% entre nos deux études. Nous avons observé que la durée de circulation extracorporelle était tout patient confondus de 97 min (33) dans notre étude et de 73 min (41) dans l’étude de Bruni et al. Cette différence est d’autant plus marquée lorsque nous comparons les groupes avec et sans fraction d’épaississement <20%. Nous retrouvions ainsi en cas de dysfonction 103 min (35) de CEC à Grenoble, tandis que dans l’étude Bruni et al, elle était également de 103 min (34). Pour les patients qui présentaient une fraction d’épaississement > 20%, nous avons observé des durées de 83 min (24) tandis que dans l’étude Bruni et al, elles étaient de 55 min (34). Parmi ces patients, 84% de ceux qui ne présentaient pas d’altération de la contractilité avaient eu un monogeste à type de pontage aorto-coronarien réalisé par un chirurgien transalpin. Cette proportion était de 36 % dans notre étude. L’étude italienne incluait 15 patients dont le pontage aorto-coronarien était réalisé à « cœur battant » contre aucun dans l’étude grenobloise. Effectivement, l'article italien ne fournit pas les données concernant la durée médiane de la circulation extracorporelle (CEC) en excluant les patients opérés "à cœur battant" et ne mentionne pas non plus la durée de clampage. Cependant, il est important de noter que la durée de clampage est pratiquement indépendante du temps de prélèvement des artères mammaires et donc de la durée d'exposition des nerfs phréniques à un traumatisme direct. La durée de la CEC et son exposition semblent être des éléments clés dans l'apparition d'une dysfonction diaphragmatique, et elles sont indispensables à l'interprétation des résultats, tout comme la durée de clampage. En effet, l'interface entre le sang des patients et les dispositifs de circulation extracorporelle active la sécrétion de cytokines pro-inflammatoires, le stress et les cascades de coagulation. Les événements respiratoires indésirables sont complexes à identifier. Les liens avec les résultats à court terme sont relativement peu contributifs et souvent peu pertinents. Dans l'étude grenobloise, peu de liens 165 ont été trouvés entre une fonction contractile altérée et un pronostic défavorable. Cependant, nous avons observé une durée de séjour plus longue en réanimation en cas de développement d'une atrophie du diaphragme. En effet, la durée de séjour était de 3 jours [2-5] en cas de diminution de l'épaisseur, comparée à 2 jours [2-4] en cas de stabilité et 2 jours [2] en cas d'augmentation (test ANOVA P = 0,046). L'étude de Bruni et al. a révélé que les patients atteints de dysfonction diaphragmatique étaient plus difficiles à sevrer (définis comme nécessitant plus d'une tentative de sevrage respiratoire), étaient extubés plus tardivement et présentaient une durée de séjour plus longue en réanimation. Cependant, il est important de noter que les critères de définition de la dysfonction diaphragmatique peuvent varier d'une étude à l'autre, ce qui peut influencer les résultats. Par exemple, dans l'étude italienne, la durée de séjour en réanimation était comptabilisée en heures et était inférieure à 24 heures, tandis qu'à Grenoble, elle était comptabilisée en jours, ce qui reflète des pratiques différentes entre les équipes. Il est donc essentiel de prendre en compte ces variations dans les définitions des complications respiratoires et les durées d'étude. Pour illustrer cette problématique de la définition des complications respiratoires et des durées d'étude, nous pouvons citer une étude récente menée à Paris par Laghlam et al., qui rapporte un taux de 8% de dysfonction diaphragmatique persistante à une semaine181 Dans cette étude, la mesure de la dysfonction diaphragmatique était basée sur l'excursion diaphragmatique, associée ou non à un test de sniff. Les mêmes auteurs ont également observé une association entre la dysfonction diaphragmatique et des événements respiratoires indésirables tels qu'une augmentation des pneumopathies postopératoires et un taux plus élevé de réintubation. Nous pouvons formuler plusieurs hypothèses à ce sujet. Il est probable qu'une récupération de la fonction diaphragmatique se produise pour la majorité des patients en moins d'une semaine, comme cela a été observé dans le cas de la chirurgie abdominale, sans avoir d'impact majeur sur le devenir des patients. Cependant, les facteurs associés à cette réversibilité de la dysfonction diaphragmatique nécessitent encore des investigations, car c'est la persistance d'une faiblesse du diaphragme qui semble avoir des conséquences sur le plan respiratoire. De plus, la présence et la signification de l'évolution trophique du muscle diaphragmatique que nous avons mise en évidence nécessitent une confirmation supplémentaire. Nous proposons également de définir des perspectives spécifiques pour les "études diaphragmatiques en chirurgie cardiaque". Les conditions dans lesquelles l'examen est réalisé avec une pression expiratoire positive de 0 cmH2O et une aide inspiratoire n'ont pas été associées à des événements indésirables notables. Cela permet d'explorer le diaphragme avec une contrainte certaine et reproductible en toute sécurité. L'homogénéité des conditions de mesure pourrait être bénéfique pour les futures études. En ce qui concerne la durée et les moments de l'étude, il serait intéressant d'effectuer des évaluations préopératoires, pendant l'épreuve de sevrage de la ventilation mécanique, le jour suivant l'intervention, au moment du départ de la réanimation et jusqu'au septième jour postopératoire, afin de suivre et d'évaluer la récupération. L'étude de l'épaisseur du diaphragme et des facteurs associés à ces modifications nous semble également essentielle dans les futures études afin de consolider les données en lien avec celles de la réanimation. Par conséquent, il serait pragmatique d'étudier la contractilité du diaphragme en utilisant la fraction d'épaississement. Enfin, lors de l'évaluation en ventilation spontanée, une évaluation sous contrainte telle que le sniff test devrait systématiquement être associée. 3.3 Choc cardiogénique et dysfonction diaphragmatique
Dans nos études, nous avons constaté que lors du sevrage de l'ECMO-VA, la fraction d'épaississement du diaphragme était associée à la fonction systolique du ventricule gauche évaluée par la fraction d'éjection du ventricule gauche (FEVG). Ces résultats sont cohérents avec les études menées chez les patients atteints d'insuffisance cardiaque avec une altération de la fraction d'éjection.270,281 L’augmentation du balayage de l’ECMO-VA permet de diminuer la charge de travail respiratoire. Cette réduction de la charge de travail respiratoire, combinée à la diminution de la précharge du myocarde et au maintien d'un débit systémique adéquat, favorise le sevrage précoce de la ventilation mécanique et vise à favoriser l'autonomie du patient et, par conséquent, sa récupération. De plus, en évitant les 167 interactions entre le patient et la ventilation invasive, on peut s'attendre à un bénéfice proportionnel en termes de pronostic. Lorsque nous comparons nos études avec celles d'Aubier et al, via l’EMG et la Pdi, nous trouvons des similitudes et des différences.8,35,226 Dans nos études, nous avons observé une faible contractilité initiale lors du choc cardiogénique sous ECMO-VA. Cette faible contractilité est également observée lorsque le choc est décompensé dans un modèle animal. En ce qui concerne la relation avec la ventilation mécanique, nous avons constaté que les patients extubés précocement avaient de meilleurs résultats en termes de survie par rapport à ceux qui n'avaient pas pu être extubés dans notre étude sous ECMO-VA. En revanche, les chiens des études originales d'Aubier et al qui étaient ventilés ont survécu mieux que les chiens non ventilés, notamment en raison d'une réaffectation du débit sanguin. Nous avons complété ces résultats en étudiant la relation entre l'évolution de l'épaisseur du diaphragme et la ventilation mécanique. Les patients qui n'ont pas développé d'atrophie du diaphragme avaient tendance à avoir une durée de ventilation plus courte et une mortalité plus faible. Dans notre dernière étude, intitulée "Atrophy-ECMO", nous obtenons en quelque sorte une image en miroir par rapport aux études historiques d'Aubier et al. La contractilité est basse et peu associée à la demande exacerbée par les désordres métaboliques à cette phase initiale du choc. De plus, c'est la persistance de la nécessité de recourir à une ventilation mécanique qui est associée à une surmortalité. En effet, ces résultats sont susceptibles de contribuer aux réflexions dans le domaine de l'assistance circulatoire pour le choc, ainsi que dans le domaine des ECMO-VV.39,45 Une observation intéressante soulevée par ces études est l'hypothèse selon laquelle il serait possible de préserver l'épaisseur du diaphragme même en présence d'une contractilité réduite. Cela irait à l'encontre du principe de l'atrophie induite par le repos musculaire, du moins chez les patients extubés et assistés. Cependant, cette hypothèse nécessiterait une confirmation supplémentaire par des études ultérieures. 3,4 La balance acide/base est un élément d’intérêt qui intervient dans notre model. La compréhension de cette donnée nous est imparfaite. Pourtant, nous pourrions formuler l’hypothèse que la préservation de 168 la trophicité à basse contractilité n’est possible que lorsque les capacités d’épuration du patient assisté ne sont pas dépassées par les désordres métaboliques. En effet, la préservation de la trophicité du muscle nécessite une balance entre anabolisme et catabolisme équilibrée consommatrice en énergie par les voies du métabolisme en aérobie. Or, une contractilité haute malgré une assistance pourrait être le témoin d’une dette énergétique persistante probablement incompatible avec le maintien de la structure du muscle. L'utilisation de la technique de mesure par ultrasons présente certaines limites dans notre étude. Cette méthode peut être sujette à des erreurs de mesure et à des variations interpréteurs. De plus, le nombre limité de participants inclus dans notre étude limite notre capacité à déterminer l'effet de la dose de contraction, c'est-à-dire la relation entre l'intensité de la contraction musculaire et les changements observés dans la structure du muscle. Dans le contexte de l'assistance par l'ECMO-VA, nous observons une dissociation entre l'évolution de la structure du muscle et son activité contractile habituelle. En d'autres termes, le processus biologique essentiel au maintien du muscle, à savoir la contraction musculaire, est modifié par le soutien de l'ECMO-VA. Cela soulève des questions quant aux mécanismes sous-jacents et à la manière dont l'assistance peut influencer la fonction musculaire.
3.4 Limites et perspectives 3.4.1 Problèmes et perspectives liés aux mesures respiratoires : force, performance et épaisseur
La mesure du travail respiratoire et de la force respiratoire peut être réalisée de manière plus précise à l'aide de techniques telles que la manométrie œsophagienne et la stimulation magnétique. Cependant, l'utilisation de ces outils est souvent limitée dans les études à grande échelle en raison de certaines contraintes et difficultés pratiques. 169 Dans le cas de l'ECMO-VA, l'utilisation de la stimulation magnétique pour mesurer la force respiratoire est limitée en raison de la présence d'un aimant, qui est incompatible avec le fonctionnement de l'ECMOVA. De plus, l'utilisation d'une sonde naso ou oro-gastrique pour la mesure du travail respiratoire peut être moins pratique lorsque les patients sont extubés précocement dans la pratique clinique. De plus, il convient de noter que l'insertion de ce type de dispositif de mesure peut présenter un risque hémorragique accru chez les patients sous anticoagulation profonde, ce qui peut rendre leur utilisation moins favorable dans ce contexte. Ces limitations techniques et pratiques rendent difficile la réalisation d'études à grande échelle utilisant ces dispositifs, ce qui peut limiter notre compréhension des mécanismes respiratoires et de la fonction respiratoire dans le contexte de l'ECMO-VA. Cependant, il est important de continuer à explorer d'autres méthodes et approches pour évaluer le travail et la force respiratoires afin de mieux comprendre les effets de l'assistance circulatoire sur la fonction pulmonaire. Au cours de cette thèse, l'échographie du diaphragme a joué un rôle central dans les protocoles de mesure. Plus précisément, l'échographie a été réalisée au niveau de la zone d'apposition du diaphragme avec le foie en utilisant le mode TM avec une sonde vasculaire. Cette approche a été choisie en raison de sa disponibilité, de sa facilité d'utilisation et de sa corrélation avec des paramètres physiologiques importants tels que la force respiratoire et le travail respiratoire. L'utilisation de l'échographie permet d'évaluer directement l'épaisseur et les mouvements du diaphragme, ce qui donne une indication de sa fonction contractile. L'échographie peut être réalisée de manière non invasive et peut être facilement intégrée dans les protocoles de surveillance clinique. En mesurant l'épaisseur et les mouvements du diaphragme, on peut estimer le travail respiratoire réalisé par le muscle et évaluer sa capacité à générer une pression adéquate pour assurer une ventilation efficace. Cette mesure est importante pour évaluer la fonction respiratoire et détecter d'éventuelles anomalies ou dysfonctions du diaphragme. L'échographie du diaphragme offre donc une approche pratique et fiable pour évaluer la fonction diaphragmatique et son lien avec les paramètres physiologiques pertinents tels que la force respiratoire 170 et le travail respiratoire. Elle constitue un outil précieux dans le cadre de cette thèse et dans la compréhension des mécanismes respiratoires dans divers contextes cliniques, y compris celui de l'assistance circulatoire. 7,169,182 Une des limites inhérentes à la technique de mesure par ultrasons est la localisation de la mesure, avec une continuité imparfaite de l'épaisseur le long de la zone d'apposition avec le foie. De plus, le seuil de 10 % de variation pour définir une variation de l'épaisseur est accepté pour l'atrophie, mais il n'y a pas de consensus en cas d'augmentation. 154 De même, la corrélation entre le travail respiratoire ou la force développée par le diaphragme et le calcul de la fraction d'épaississement du diaphragme est imparfaite. Enfin, le seuil de fraction d'épaississement de 20 % parfois utilisé pour définir une dysfonction diaphragmatique ne fait pas l'objet d'un consensus et dépend du type de ventilation (spontanée ou assistée) ainsi que des caractéristiques de l'effort (maximal ou non).154 Plus simplement, nous avons au travers de ces travaux réalisés les examens lors d’effort de ventilation spontanée. Alors, quelles sont les conséquences de ces protocoles? D’une part, nous ne pouvons pas isoler nos résultats d’une inférence corticale et volontaire. D’autre part, il est compliqué de tirer une conclusion linéaire sur une fonction diaphragmatique à partir de sa fraction d’épaississement.
| 53,810
|
8093f90060fc54c799bd0a50b2cf79ce_19
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,008
|
Taux d'emploi pour la classe d'âge 25-54
|
None
|
French
|
Spoken
| 7,676
| 19,787
|
PANORAMA DES STATISTIQUES DE L’OCDE 2008 – ISBN 978-92-64-04055-7 – © OCDE 2008
QUALITÉ DE VIE • SANTÉ
MORTALITÉ INFANTILE
Mortalité infantile
Morts pour 1 000 naissances vivantes
1970
1980
1990
1995
2000
2001
2002
2003
2004
2005
Allemagne
22.5
12.4
7.0
5.3
4.4
4.3
4.2
4.2
4.1
3.9
Australie
17.9
10.7
8.2
5.7
5.2
5.3
5.0
4.8
4.7
5.0
Autriche
25.9
14.3
7.8
5.4
4.8
4.8
4.1
4.5
4.5
4.2
Belgique
21.1
12.1
6.5
5.9
4.8
4.5
4.4
4.3
4.3
3.7
Canada
18.8
10.4
6.8
6.1
5.3
5.2
5.4
5.3
5.3
5.4
Corée
45.0
17.0
10.0
7.7
6.2
..
5.3
..
..
..
Danemark
14.2
8.4
7.5
5.1
5.3
4.9
4.4
4.4
4.4
4.4
4.1
Espagne
28.1
12.3
7.6
5.5
4.4
4.1
4.1
3.9
4.0
États-Unis
20.0
12.6
9.2
7.6
6.9
6.8
7.0
6.9
6.8
..
Finlande
13.2
7.6
5.6
3.9
3.8
3.2
3.0
3.1
3.3
3.0
3.6
France
18.2
10.0
7.3
4.9
4.4
4.5
4.1
4.0
3.9
Grèce
29.6
17.9
9.7
8.1
5.4
5.1
5.1
4.0
4.1
3.8
Hongrie
35.9
23.2
14.8
10.7
9.2
8.1
7.2
7.3
6.6
6.2
Irlande
19.5
11.1
8.2
6.4
6.2
5.7
5.0
5.3
4.6
4.0
Islande
13.3
7.8
5.8
6.0
3.0
2.7
2.3
2.4
2.8
2.3
Italie
29.0
14.6
8.2
6.2
4.5
4.6
4.3
3.9
4.1
4.7
Japon
13.1
7.5
4.6
4.3
3.2
3.1
3.0
3.0
2.8
2.8
Luxembourg
25.0
11.4
7.3
5.6
5.1
5.8
5.1
4.9
3.9
2.6
Mexique
79.4
51.0
36.2
27.6
23.3
22.4
21.4
20.5
19.7
18.8
Norvège
12.7
8.1
6.9
4.0
3.8
3.9
3.5
3.4
3.2
3.1
Nouvelle-Zélande
16.7
13.0
8.4
6.7
6.1
5.3
5.6
4.9
5.6
5.1
Pays-Bas
12.7
8.6
7.1
5.5
5.1
5.4
5.0
4.8
4.4
4.9
Pologne
36.7
25.5
19.3
13.6
8.1
7.7
7.5
7.0
6.8
6.4
Portugal
55.5
24.2
11.0
7.5
5.5
5.0
5.0
4.1
3.8
3.5
République slovaque
25.7
20.9
12.0
11.0
8.6
6.2
7.6
7.9
6.8
7.2
République tchèque
20.2
16.9
10.8
7.7
4.1
4.0
4.1
3.9
3.7
3.4
Royaume-Uni
18.5
12.1
7.9
6.2
5.6
5.5
5.2
5.3
5.0
5.1
Suède
11.0
6.9
6.0
4.1
3.4
3.7
3.3
3.1
3.1
2.4
Suisse
15.1
9.1
6.8
5.0
4.9
5.0
5.0
4.3
4.2
4.2
Turquie
145.0
117.5
55.4
43.0
28.9
27.8
26.7
28.7 |
24.6
23.6
Moyenne OCDE
28.7
17.8
11.0
8.4
6.7
6.4
6.1
6.0
5.7
5.5
Brésil
..
69.1
47.0
37.9
30.1
29.2
28.4
27.5
26.6
25.8
Chine
..
..
..
..
..
..
..
..
..
24.3
Fédération de Russie
..
..
..
18.1
15.3
14.6
13.3
12.4
11.6
11.0
1 2 http://dx.doi.org/10.1787/275672465188
Mortalité infantile
Morts pour 1 000 naissances vivantes, 2005 ou dernière année disponible
23.6 24.3 25.8
20
16
12
8
4
Isl
a
nd
e
Lu Suè
xe de
m
bo
ur
g
Ja
po
Fin n
Ré
lan
pu
d
bli No e
qu rvè
e t ge
ch
èq
Po ue
rtu
ga
Fr l
an
Be ce
lgi
qu
e
Gr
All èc
em e
ag
n
Irla e
nd
Es e
pa
g
Au ne
tri
ch
Su e
Da iss
ne e
m
ar
k
Ita
Pa lie
ys
-B
No
uv Aus as
ell tra
e- li
Ro Zéla e
y a nd
um e
eUn
Co i
r
Mo Ca ée
ye na
nn da
eO
CD
Ho E
ng
Po rie
Ré
pu É logn
t
Fé bliqu ats- e
dé e Un
ra slo is
tio v
n d aq
e R ue
us
Me sie
xiq
u
Tu e
rq
uie
Ch
ine
Br
és
il
0
1 2 http://dx.doi.org/10.1787/400511280263
PANORAMA DES STATISTIQUES DE L’OCDE 2008 – ISBN 978-92-64-04055-7 – © OCDE 2008
237
QUALITÉ DE VIE • SANTÉ
OBÉSITÉ
L’obésité constitue un facteur de risque connu pour
plusieurs problèmes de santé, dont l’hypertension, l’excès
de cholestérol, le diabète, les maladies cardiovasculaires, les
problèmes
respiratoires
(asthme),
les
maladies
musculosquelettiques (arthrite), et certaines formes de
cancer. Au niveau individuel, l’obésité peut avoir plusieurs
causes, dont des apports caloriques excessifs, le manque
d’activité physique, une prédisposition génétique et des
troubles du système endocrinien.
L’obésité est associée à une augmentation du risque de
contracter une maladie chronique, et donc susceptible
d’entraîner un important surcroît de dépenses pour les
soins de santé requis.
Définition
Pour évaluer la surcharge pondérale et déterminer s’il y a
obésité, on se sert le plus souvent de l’indice de masse
corporelle (IMC), chiffre représentant le rapport du poids d’un
individu à sa taille (poids/taille2, le poids étant exprimé en
kilogrammes et la taille en mètres). Selon la classification
actuelle de l’OMS, un adulte est en surpoids lorsque son IMC se
situe entre 25 et 30, et il est obèse si son IMC est supérieur à 30.
Comparabilité
La classification fondée sur l’IMC n’est pas nécessairement
adaptée à tous les groupes ethniques, qui peuvent être
exposés à des risques équivalents avec un IMC plus bas
(comme les Asiatiques) ou plus élevé. Le seuil pour les
adultes ne convient pas non plus pour déterminer s’il y a
surpoids ou obésité chez les enfants.
Pour la plupart des pays, les données sur l’obésité sont
recueillies au moyen d’enquêtes sur la santé effectuées à
travers des entretiens auprès de la population. Font
exception l’Australie, la République tchèque (2005), le
Luxembourg, la Nouvelle-Zélande, le Royaume-Uni et les
États-Unis, pour lesquels les données proviennent
d’examens de santé au cours desquels le poids et la taille
des personnes sont réellement mesurés. Cette différence de
méthode de collecte des données limite sensiblement la
comparabilité de ces dernières. Les estimations fondées sur
les examens de santé sont généralement plus élevées et
plus fiables que celles qui ont été établies d’après les
informations fournies lors des entretiens sur l’état de santé.
Tendances à long terme
La moitié ou plus de la population adulte est aujourd’hui
considérée comme en surpoids ou obèse dans pas moins de
15 pays de l’OCDE : Mexique, États-Unis, Royaume-Uni, Australie,
Grèce, Nouvelle-Zélande, Luxembourg, Hongrie, République
tchèque, Canada, Allemagne, Portugal, Finlande, Espagne et
Islande. À titre de comparaison, les taux de surpoids et d’obésité
sont beaucoup plus bas dans les deux pays asiatiques de l’OCDE
(Japon et Corée) et dans certains pays d’Europe (France et Suisse),
encore qu’ils progressent aussi dans ces pays. S’agissant
uniquement de l’obésité, sa prévalence chez les adultes va de 3 %
au Japon et en Corée à plus de 30 % aux États-Unis et au Mexique.
L’évaluation systématique de l’obésité au fil du temps montre que
le taux d’obésité a plus que doublé au cours des vingt dernières
années aux États-Unis, et qu’il a été presque multiplié par trois en
Australie et a plus que triplé au Royaume-Uni. Il a aussi fortement
augmenté dans un grand nombre de pays d’Europe occidentale
durant la dernière décennie.
Dans tous les pays, il y a plus d’hommes en surcharge pondérale
que de femmes, mais, dans presque la moitié des pays de l’OCDE,
il y a plus de femmes obèses que d’hommes. Si l’on prend en
compte la surcharge pondérale et l’obésité ensemble, le taux des
femmes dépasse celui des hommes dans seulement deux pays –
le Mexique et la Turquie.
238
Source
• OCDE (2007), Éco-Santé OCDE 2007, OCDE, Paris.
Pour en savoir plus
Publications analytiques
• OCDE (2004), Le projet de l’OCDE sur la santé : Vers des
systèmes de santé plus performants, OCDE, Paris.
• OCDE (2004), Le projet de l’OCDE sur la santé : Vers des
systèmes de santé plus performants – Études thématiques,
OCDE, Paris.
Publications statistiques
• OCDE (2007), Panorama de la santé 2007 : Les indicateurs de
l’OCDE, OCDE, Paris.
Bases de données en ligne
• OCDE Eco-Santé.
Sites Internet
• Données sur la santé de l’OCDE, www.oecd.org/health/
healthdata.
• Séance sur l’obésité et la santé au Forum 2004 de l’OCDE,
www.oecd.org/forum2004.
PANORAMA DES STATISTIQUES DE L’OCDE 2008 – ISBN 978-92-64-04055-7 – © OCDE 2008 QUALITÉ DE VIE • SANTÉ OBÉSITÉ Population en surpoids et obèse âgée de 15 ans ou plus En pourcentage de la population âgée de 15 ans ou plus, 2005 ou dernière année disponible Femmes En surpoids Obèse Hommes En surpoids ou obèse En surpoids Obèse Total En surpoids ou obèse En surpoids Obèse En surpoids ou obèse Allemagne 28.7 12.8 41.5 43.5 14.4 57.9 36.0 13.6 49.6 Australie 28.2 21.4 49.6 45.3 21.9 67.2 36.7 21.7 58.4 46.1 Autriche 21.3 9.1 30.4 54.3 9.1 63.4 37.0 9.1 Belgique 24.4 13.4 37.8 38.7 11.9 50.6 31.4 12.7 44.1 Canada 24.7 19.0 43.7 39.3 17.0 56.3 31.9 18.0 49.9 Corée 23.7 3.3 27.0 30.3 3.7 34.0 27.0 3.5 30.5 Danemark 26.4 11.8 38.2 40.9 11.0 51.9 33.2 11.4 44.6 Espagne 27.6 13.4 40.9 43.5 12.9 56.3 35.3 13.1 48.4 États-Unis 28.6 33.2 61.8 39.7 31.1 70.8 34.1 32.2 66.3 Finlande 26.6 13.5 40.1 44.8 14.9 59.7 35.0 14.1 49.2 France 19.6 9.3 29.0 31.1 9.8 40.5 25.1 9.5 34.6 Grèce 29.9 18.2 48.1 41.1 26.0 67.1 35.2 21.9 57.1 Hongrie 29.8 18.0 47.8 38.7 19.6 58.3 34.0 18.8 52.8 Irlande 25.0 12.0 37.0 41.0 14.0 55.0 34.0 13.0 47.0 Islande 28.0 12.4 40.4 44.6 12.4 57.0 35.9 12.4 48.3 Italie 26.2 9.7 35.9 43.9 10.2 54.0 34.7 9.9 44.6 Japon 16.9 3.2 20.1 24.5 2.8 27.3 20.3 3.0 23.3 Luxembourg 25.4 18.5 43.9 41.1 18.8 59.9 34.6 18.6 53.3 Mexique 36.6 34.7 71.3 42.6 23.7 66.4 39.1 30.2 69.2 Norvège 26.0 8.0 34.0 43.0 9.0 52.0 34.0 9.0 43.0 Nouvelle-Zélande 28.4 21.7 50.2 42.1 20.1 62.2 35.2 20.9 56.2 Pays-Bas 28.2 11.4 39.6 40.5 9.9 50.4 34.2 10.7 44.9 Pologne 26.6 12.5 39.1 39.5 12.6 52.1 32.8 12.5 45.3 Portugal 31.8 14.0 45.8 42.3 11.4 53.7 36.8 12.8 49.6 République slovaque 24.9 15.6 40.5 42.0 15.2 57.2 32.2 15.4 47.6 République tchèque 29.0 17.0 46.0 42.0 18.0 60.0 35.0 17.0 52.0 Royaume-Uni 32.1 24.2 56.3 42.6 22.1 64.7 37.0 23.0 60.0 Suède 25.9 10.3 36.2 40.7 11.1 51.8 33.3 10.7 44.0 Suisse 21.8 7.5 29.3 37.5 7.9 45.4 29.4 7.7 37.1 Turquie 28.9 14.5 43.4 33.6 9.7 43.3 31.6 12.0 43.4 1 2 http://dx.doi.org/10.1787/275676256538 Population obèse âgée de 15 ans ou plus En pourcentage de la population âgée de 15 ans ou plus, 2005 ou dernière année disponible Chiffres rapportés Chiffres mesurés 35 30 25 20 15 10 5 Ja po n Co ré e Su iss No e rv èg Au e tri ch e Fr an ce Ita Pa lie ys -B as Su è d Da ne e m ar k Tu rq uie Isl an d Po e log Be ne lgi qu Po e rtu ga Irla l nd Es e pa All gne em ag Ré n pu bli Fin e l q Ré ue and e pu s bli lova qu e t que ch èq u Ca e n Lu a d xe m a bo ur No g uv Hon ell g e- rie Zé lan Au de str ali e Ro Grè ya c um e eU Me ni xiq u Ét at e sUn is 0 1 2 http://dx.doi.org/10.1787/400513743040 PANORAMA DES STATISTIQUES DE L’OCDE 2008 – ISBN 978-92-64-04055-7 – © OCDE 2008 239 QUALITÉ DE VIE • LOISIRS TOURISME-NUITÉES QUALITÉ DE VIE Loisirs Le nombre d’arrivées de touristes non résidents en chambre d’hôtel ou dans un établissement assimilé est l’une des mesures standard de l’activité touristique internationale. Définition
Ces statistiques concernent le nombre de non résidents qui
arrivent dans un hôtel ou dans un établissement assimilé –
résidence hôtelière, motel, hôtel de villégiature, club,
pension, etc. – ou dans un établissement d’hébergement
offrant des services hôteliers limités. Il convient de noter
que les arrivées de touristes non résidents n’indiquent pas
le nombre de voyageurs. Si une personne se rend dans le
même pays plusieurs fois par an, chacune de ses visites est
considérée comme une arrivée distincte et si une personne
se rend dans plusieurs pays au cours d’un même voyage,
son arrivée dans chaque pays est comptabilisée
séparément. Les excursionnistes, de même que les
personnes qui séjournent chez des amis ou parents, ne sont
pas pris en compte.
Comparabilité
Plusieurs pays de l’OCDE ne peuvent pas fournir de
statistiques sur « les arrivées de touristes non résidents
dans les hôtels ou autres établissements similaires ». Pour
ces pays, les statistiques présentées ici recouvrent les
« arrivées de non résidents aux frontières nationales ». Le
Canada, la Chine, l’Inde, l’Irlande, et les États-Unis
indiquent le nombre de non résidents arrivant à leur
frontière ; un touriste est un visiteur qui a l’intention de
séjourner pendant une nuit au moins. Les chiffres du Japon,
de la Corée et de la Nouvelle-Zélande incluent le nombre
d’arrivées de visiteurs non résidents à leurs frontières
nationales ; la catégorie visiteur inclut les visiteurs qui
passe la nuit (touriste) et ceux d’un seul jour. Les périodes
de temps présentent un mélange des indicateurs pour
l’Australie (visiteurs pour 1990-1997 et touristes pour 19982006) et l’Afrique du Sud (visiteurs pour 1990-1994 et
touristes pour 1995-2006).
Sources
• Office statistique des Communautés européennes (Eurostat).
• Organisation mondiale du tourisme (UNWTO).
Pour en savoir plus
Publications analytiques
Tendances à long terme
Au cours de la dernière décennie, le plus grand nombre d’arrivées
dans les hôtels et les établissements similaires a été enregistré par
les États-Unis, suivis de la Chine, de la France, de l’Italie et de
l’Espagne. Les arrivées ont augmenté de 6 % ou plus par an, en
Islande, en Chine, en Espagne, en Inde, au Japon, en Fédération de
Russie et en Turquie. Les taux de croissance les plus bas (moins de
1 % par an) on été enregistrés en Norvège, au Danemark, au
Canada, au Royaume-Uni et aux États-Unis.
D’après les prévisions de l’Organisation mondiale du tourisme
(OMT), les arrivées internationales dépasseront le chiffre de
1.56 milliard en 2020. Dans la région de l’Asie de l’Est et du
Pacifique, en Asie du Sud, au Moyen-Orient et en Afrique, le
tourisme devrait se développer à un rythme supérieur à 5 % par
an, à comparer à une moyenne mondiale de 4.1 %. Dans les
régions touristiques plus anciennes d’Europe et des Amériques,
en revanche, son expansion devrait être inférieure à la moyenne.
L’Europe restera la première destination mondiale, mais sa part
diminuera, tombant à 46 % des arrivées mondiales en 2020 contre
60 % en 1995.
Les pays membres de l'OCDE (huit pays sur les dix principales
destinations touristiques mondiales sont membres de l'OCDE)
représentent environ 60 % des arrivées internationales, la part du
marché mondial va décroitre légèrement dans le futur à cause des
nouvelles destinations émergentes. Cependant, l'importance de
l'économie liée au tourisme dans la zone OCDE continue de
croître. Le tourisme représente entre 2 et 12 % du PIB, entre 3 et
11 % de l'emploi et, en moyenne autour de 30 % des exportations
de services dans les pays membres de l'OCDE.
240
• OCDE (2007), Changements climatiques dans les Alpes
européennes : Adapter le tourisme d’hiver et la gestion des
risques naturels, OCDE, Paris.
• OCDE (2006), Innovation and Growth in Tourism, OCDE, Paris.
• OCDE (2008), Le tourisme dans les pays de l’OCDE 2008 :
Tendances et politiques, OCDE, Paris.
Publications statistiques
• Eurostat (2007), Panorama on Tourism, European
Commission, Luxembourg.
• Eurostat (2007), Tourism statistics – Pocketbook – Data 20002005, European Commission, Luxembourg.
• UNWTO (2003), Tourism 2020 Vision, UNWTO, Madrid.
• UNWTO (2007), Yearbook of Tourism Statistics, UNWTO,
Madrid.
Publications méthodologiques
• Nations Unies, OCDE, Organisation mondiale du tourisme
(2001), Compte satellite du tourisme : Recommandations
concernant le cadre conceptuel, OCDE, Paris.
• ONU, UNWTO (1994), Recommendations on Tourism
Statistics, ONU, New York.
Sites Internet
• Eurostat, http://europa.eu.int/comm/eurostat/.
• Travaux sur le tourisme de l’OCDE, www.oecd.org/cfe/
tourism.
• Organisation mondiale du tourisme, www.worldtourism.org.
PANORAMA DES STATISTIQUES DE L’OCDE 2008 – ISBN 978-92-64-04055-7 – © OCDE 2008
QUALITÉ DE VIE • LOISIRS
TOURISME-NUITÉES
Arrivées de touristes non résidents séjournant dans des hôtels et des établissements similaires
Milliers
Allemagne
1993
1994
1995
1996
1997
1998
1999
2000
2001
2002
2003
2004
2005
2006
12 071
12 269
12 683
13 042
13 745
14 457
14 965
16 719
15 754
15 672
15 979
17 620
18 761
20 630
Australie
2 996
3 362
3 726
4 165
4 318
3 825
4 109
4 530
4 435
4 420
4 354
4 774
5 020
5 064
Autriche
13 032
12 878
12 464
12 533
12 329
12 803
12 755
13 240
13 279
13 487
13 748
14 075
14 542
14 947
Belgique
3 719
3 947
4 138
4 469
4 710
4 859
4 983
5 163
5 117
5 323
5 261
5 385
5 409
5 665
Canada
15 105
15 972
16 932
17 286
17 669
18 870
19 411
19 627
19 679
20 057
17 534
19 145
18 770
18 265
Corée
6 155
3 331
3 580
3 753
3 684
3 908
4 250
4 660
5 322
5 147
5 347
4 753
5 818
6 023
Danemark
..
..
..
1 307
1 317
1 305
1 268
1 347
1 310
1 284
1 294
1 363
1 350
1 356
Espagne
12 914
15 310
16 286
17 008
18 250
20 199
26 799
27 150
27 012
26 611
27 249
27 620
29 029
34 412
États-Unis
45 779
44 753
43 490
46 636
47 875
46 377
48 510
51 237
46 927
43 581
41 218
46 086
49 206
50 978
Finlande
1 447
1 633
1 587
1 537
1 618
1 655
1 613
1 751
1 774
1 796
1 800
1 825
1 828
2 045
France
26 270
27 121
27 018
27 096
29 625
32 339
34 267
36 474
35 097
36 093
32 520
33 988
35 003
32 506
Grèce
7 548
6 209
6 659
6 250
5 973
6 785
7 276
7 229
7 767
6 997
6 654
6 574
6 313
7 143
Hongrie
..
2 122
2 116
2 202
2 188
2 472
2 401
2 604
2 669
2 659
2 599
2 951
3 140
3 009
Irlande
3 888
4 309
4 818
5 289
5 587
6 064
6 403
6 646
6 353
6 476
6 764
6 953
7 333
8 001
..
..
..
311
354
400
431
451
465
513
569
615
643
714
Italie
Islande
17 919
21 074
23 467
24 929
25 133
25 927
26 530
28 797
29 138
29 340
28 174
29 916
30 870
34 057
Japon
3 410
3 468
3 345
3 837
4 218
4 106
4 438
4 757
4 772
5 239
5 212
6 138
6 728
7 334
507
492
496
461
508
525
580
589
577
599
581
613
667
673
Mexique
5 174
5 159
6 718
7 491
8 155
8 157
9 501
9 867
9 410
7 869
8 556
9 972
10 691
9 689
Luxembourg
Norvège
2 556
2 830
2 880
2 746
2 702
2 829
2 857
2 787
2 686
2 561
2 439
2 556
2 656
2 841
Nouvelle-Zélande
1 157
1 323
1 409
1 529
1 497
1 485
1 607
1 787
1 909
2 045
2 104
2 334
2 366
2 409
Pays-Bas
3 778
4 456
4 797
4 999
6 163
7 432
7 550
7 738
7 445
7 433
6 930
7 601
8 081
8 567
Pologne
2 315
2 540
2 792
3 020
2 919
2 695
1 982
2 505
2 488
2 536
2 701
3 385
3 723
3 738
Portugal
3 372
3 809
4 000
4 069
4 314
4 974
4 911
5 119
4 934
5 060
4 906
5 201
5 355
5 883
536
680
735
758
660
701
767
836
927
1 041
1 043
1 094
1 203
1 292
République slovaque
République tchèque
Royaume-Uni
..
2 448
2 891
3 696
4 013
4 067
4 141
3 863
4 439
4 314
4 485
5 346
5 686
5 781
14 259
14 927
17 118
16 890
17 110
16 304
17 019
17 019
17 019
14 176
14 397
13 172
17 009
18 322
2 867
Suède
1 629
1 830
1 995
2 091
2 143
2 304
2 320
2 465
2 586
2 577
2 552
2 610
2 736
Suisse
7 225
7 358
6 946
6 730
7 039
7 185
7 154
7 821
7 455
6 868
6 530
..
7 229
7 863
Turquie
4 072
3 716
4 617
6 440
9 382
7 539
4 805
6 789
8 769
9 859
8 983
10 962
12 937
11 883
Afrique du Sud
3 358
3 897
4 488
4 915
4 976
5 732
5 890
5 872
5 787
6 430
6 505
6 678
7 369
8 396
Brésil
1 402
1 529
1 709
2 266
2 419
3 854
3 754
3 868
3 331
3 536
2 633
3 068
3 215
..
Chine
18 982
21 070
20 034
22 765
23 770
25 073
27 047
31 229
33 167
36 803
32 970
41 761
46 809
..
Fédération de Russie
Inde
..
..
5 311
5 496
6 489
6 282
7 102
7 410
3 215
3 231
3 101
3 275
3 438
4 416
1 765
1 886
2 124
2 288
2 374
2 359
2 482
2 649
2 537
2 384
2 726
3 457
3 919
4 447
1 2 http://dx.doi.org/10.1787/275707387207
Arrivées de touristes non résidents séjournant dans des hôtels et des établissements similaires
Croissance annuelle moyenne en pourcentage, 1996-2006 ou dernière période disponible
10
8
6
4
2
0
-2
No
r
Da vèg
ne e
m
ar
Ro Can k
ya ad
um a
e
Ét -Un
at
s- i
Un
i
Su s
is
Au se
tri
ch
Fr e
an
Au ce
str
a
Po lie
log
ne
Gr
Be èce
lgi
q
Me ue
xiq
Fin ue
lan
de
Ita
Ho l i e
ng
ri
Su e
èd
P e
Lu ortu
xe ga
m l
bo
ur
g
Ré
Br
pu
és
bli Ir il
No que land
uv tch e
ell èq
e- u
Zé e
All land
em e
Ré
ag
pu
n
bli
qu C e
e or
Af slov ée
riq a
ue qu
du e
Pa Sud
Fé
ys
dé
-B
ra
a
tio Tu s
n d rqu
e R ie
us
sie
Ja
po
n
In
Es de
pa
gn
e
Ch
ine
Isl
an
de
-4
1 2 http://dx.doi.org/10.1787/400547676268
PANORAMA DES STATISTIQUES DE L’OCDE 2008 – ISBN 978-92-64-04055-7 – © OCDE 2008
241
QUALITÉ DE VIE • LOISIRS
LOISIRS ET CULTURE
Il existe en général une corrélation positive entre la part du
PIB qui est consacrée aux loisirs et à la culture et le revenu
par habitant – plus un pays est riche, plus la part des
dépenses afférentes à la culture et aux loisirs est importante
– mais il existe des exceptions frappantes. Les dépenses de
l’Irlande (pays riche) dans le domaine des loisirs et de la
culture sont relativement peu élevées, alors que celles de la
République tchèque (pays pauvre) sont proportionnellement
assez fortes.
Définition
Les dépenses consacrées par les ménages aux loisirs et à la
culture comprennent les achats de matériel audiovisuel,
photographique et informatique ; de CD et DVD ;
d’instruments de musique ; de camping-cars ; de caravanes ;
d’articles de sport ; de jouets ; d’animaux domestiques et de
produits connexes ; d’outils de jardinage et de plantes ; de
journaux ; de billets pour des manifestations sportives, de
places de cinéma et de théâtre ; et les sommes consacrées
aux jeux (y compris les tickets de loto) déduction faite des
gains éventuels. Elles ne comprennent pas les dépenses
afférentes aux restaurants, aux hôtels, aux voyages et aux
maisons de vacances, mais comprennent les voyages
organisés.
Les dépenses publiques comprennent l’administration des
affaires sportives, récréatives et culturelles, ainsi que
l’entretien des zoos, des jardins botaniques, des plages et
des parcs publics ; le soutien des services de radiodiffusion
et, le cas échéant, les aides versées aux organisations
religieuses, aux associations bénévoles, aux associations
d’intérêt public, aux mouvements de jeunesse et aux autres
organisations de la société (y compris les frais de
fonctionnement et de réparation des installations et, le cas
échéant, les salaires des membres du clergé et autres
responsables).
Elles
comprennent
également
les
subventions accordées aux artistes et groupes artistiques.
Les dépenses d’équipement consacrées, par exemple, à la
construction de stades, de piscines publiques et de théâtres,
d’opéras et de musées nationaux, sont comprises.
Comparabilité
Les données présentées dans les tableaux proviennent
toutes de la base de données de l’OCDE sur les comptes
nationaux, et ont été établies conformément à un ensemble
de définitions communes.
Tendances à long terme
Dans la majorité des pays, les dépenses consacrées par les
ménages aux loisirs et à la culture sont demeurées assez stables,
aux environs de 5 % du PIB, au cours de la dernière décennie. La
Nouvelle-Zélande, la République slovaque et le Royaume-Uni
représentent des exceptions dignes d’être mentionnées : les
dépenses des ménages y ont augmenté beaucoup plus
rapidement que la moyenne. Dans certains pays, notamment en
Irlande, en Pologne et aux Pays-Bas, ces dépenses ont fortement
chuté en pourcentage du PIB. À la fin de la période considérée, les
dépenses des ménages se situaient bien au-dessus de la moyenne
des pays de l’OCDE au Royaume-Uni, en Nouvelle-Zélande, en
Australie et en Autriche, et bien au-dessous au Mexique et en
Irlande.
Les données sur les dépenses publiques relatives aux loisirs, à la
culture et au culte sont disponibles pour un nombre plus restreint
de pays. Dans la majorité d’entre eux, ces dépenses représentent
entre 0.5 % et 2 % du PIB. À la fin de la période, elles se situaient
bien au-dessus de la moyenne au Luxembourg, en Hongrie, au
Danemark et (en particulier) en Islande, et au-dessous de 0.5 % du
PIB au Japon et aux États-Unis. Sur l’ensemble de la période
considérée, elles ont progressé assez rapidement en Corée, en
Belgique et en France, mais elles ont diminué en Suède et en
Norvège.
Le troisième tableau indique le montant global des dépenses
publiques et privées afférentes aux loisirs et à la culture. Dans la
majorité des pays, celui-ci représente entre 5 % et 7 % du PIB,
mais il est un peu plus élevé en Islande, au Royaume-Uni, en
Nouvelle-Zélande et en Autriche, et beaucoup plus bas en Irlande
et en Corée.
242
Source
• OCDE (2007), Comptes nationaux des pays de l’OCDE, OCDE,
Paris.
Pour en savoir plus
Publications analytiques
• OCDE (2005), La culture et le développement local, OCDE,
Paris.
PANORAMA DES STATISTIQUES DE L’OCDE 2008 – ISBN 978-92-64-04055-7 – © OCDE 2008
QUALITÉ DE VIE • LOISIRS
LOISIRS ET CULTURE
Dépenses des ménages en loisirs et culture
En pourcentage du PIB
1993
1994
1995
1996
1997
1998
1999
2000
2001
2002
2003
2004
2005
2006
Allemagne
5.2
5.1
5.1
5.2
5.3
5.4
5.5
5.6
5.6
5.4
5.3
5.3
5.3
5.2
Australie
6.7
6.9
7.2
7.2
7.3
7.3
7.2
7.3
7.1
7.2
7.2
7.1
6.9
..
Autriche
6.7
6.6
6.4
6.5
6.5
6.7
6.9
6.9
6.9
6.9
6.8
6.7
6.6
6.5
4.7
Belgique
..
..
4.8
4.9
5.0
5.0
5.1
5.2
5.2
4.8
4.8
4.7
4.7
Canada
5.3
5.5
5.5
5.6
5.6
5.7
5.7
5.7
5.7
5.8
5.7
5.6
5.5
..
Corée
4.0
4.2
4.3
4.2
4.0
3.4
3.6
4.1
4.2
4.4
4.0
3.6
3.7
3.7
Danemark
5.1
5.1
5.1
5.3
5.3
5.3
5.2
5.2
5.1
5.1
5.3
5.4
5.3
..
Espagne
..
..
5.2
5.3
5.3
5.6
5.7
5.7
5.7
5.6
5.5
5.5
5.5
..
États-Unis
5.7
5.9
6.1
6.2
6.2
6.2
6.3
6.4
6.4
6.4
6.4
6.4
6.4
6.4
5.7
Finlande
5.4
5.3
5.3
5.6
5.4
5.4
5.4
5.4
5.3
5.3
5.5
5.5
5.7
France
4.8
4.8
4.8
4.8
4.8
4.9
5.0
5.1
5.1
5.2
5.2
5.2
5.2
5.2
Hongrie
..
..
..
..
..
..
..
4.1
4.2
4.2
4.2
4.2
4.3
4.3
Irlande
..
..
4.0
4.1
3.7
3.4
3.1
3.4
3.4
3.0
3.0
3.1
3.1
..
Islande
6.3
7.1
7.2
7.1
6.6
6.7
7.0
7.1
6.9
6.9
6.7
6.5
6.5
6.3
Italie
4.3
4.3
4.2
4.3
4.3
4.4
4.5
4.5
4.4
4.3
4.2
4.3
4.1
4.1
Japon
..
..
..
5.6
5.8
5.8
5.8
6.1
6.2
6.2
6.2
6.2
6.1
..
Luxembourg
..
..
3.9
3.9
3.9
4.0
3.7
3.6
3.8
3.9
3.6
3.5
3.4
3.1
Mexique
2.3
2.2
1.9
1.8
1.9
2.0
2.0
2.0
2.0
1.9
1.9
2.0
..
..
Norvège
5.1
5.2
5.4
5.5
5.4
5.8
5.8
5.2
5.3
5.5
5.6
5.5
5.1
..
Nouvelle-Zélande
5.7
6.1
6.3
6.5
6.7
6.9
7.0
7.2
7.1
..
..
..
..
..
Pays-Bas
5.4
5.3
5.2
5.3
5.3
5.5
5.6
5.5
5.4
5.3
5.1
5.0
4.8
4.8
Pologne
..
..
4.8
5.3
5.1
5.3
5.1
5.2
4.6
4.5
4.6
4.6
4.0
..
Portugal
..
..
3.6
3.9
4.0
4.0
4.1
4.2
4.1
4.1
4.1
4.2
..
..
République slovaque
..
..
4.0
4.2
4.2
4.3
4.6
4.7
5.4
5.2
4.8
4.7
5.0
4.9
République tchèque
..
..
5.5
5.8
6.4
6.3
6.2
6.1
6.2
6.0
6.2
6.0
5.9
5.6
Royaume-Uni
6.4
6.4
6.8
7.0
7.1
7.3
7.4
7.3
7.3
7.5
7.5
7.7
7.7
..
Suède
5.2
5.1
5.0
5.0
5.1
5.3
5.5
5.6
5.6
5.5
5.5
5.4
5.3
..
Suisse
5.4
5.4
5.4
5.3
5.3
5.2
5.2
5.1
5.1
5.1
5.1
5.0
4.9
4.7
1 2 http://dx.doi.org/10.1787/275710187238
Dépenses des ménages en loisirs et culture
En pourcentage du PIB, 2005
10
9
8
7
6
5
4
3
2
1
Me
xiq
ue
Irla
Lu
nd
xe
m e
bo
ur
g
Co
ré
Po e
log
ne
Ita
li
Po e
rtu
ga
Ho l
ng
r
Be ie
lgi
q
Pa ue
ys
-B
Ré
as
pu
bli
S
qu uis
e s se
lov
aq
u
No e
rv
èg
e
Fr
an
c
Da
e
ne
m
a
r
All
em k
ag
ne
Su
èd
e
Ca
na
da
Es
pa
gn
Ré
Fin e
pu
bli
lan
qu
e t de
ch
èq
ue
Ja
po
Ét
n
at
sUn
is
Isl
an
de
Au
tri
ch
e
A
No
uv ustr
ali
ell
e
eZ
Ro élan
ya
de
um
eUn
i
0
1 2 http://dx.doi.org/10.1787/400556488474
PANORAMA DES STATISTIQUES DE L’OCDE 2008 – ISBN 978-92-64-04055-7 – © OCDE 2008
243
QUALITÉ DE VIE • LOISIRS
LOISIRS ET CULTURE
Dépenses des administrations publiques en loisirs et culture
En pourcentage du PIB
1993
1994
1995
1996
1997
1998
1999
2000
2001
2002
2003
2004
2005
Allemagne
0.8
0.8
0.8
0.8
0.7
0.7
0.7
0.7
0.7
0.7
0.7
0.6
0.6
2006
..
Autriche
..
..
1.2
1.1
1.1
1.1
1.1
1.0
1.1
1.0
1.0
1.0
0.9
1.0
Belgique
0.9
0.9
0.9
0.9
0.9
0.9
0.9
1.0
1.0
1.3
1.2
1.3
1.3
..
Corée
..
..
0.4
0.4
0.5
0.6
0.6
0.7
0.7
0.6
0.8
0.8
0.8
..
Danemark
1.6
1.7
1.6
1.7
1.6
1.6
1.6
1.6
1.6
1.6
1.6
1.8
1.6
1.6
Espagne
..
..
..
..
..
..
1.4
1.4
1.4
1.4
1.4
1.4
1.4
..
États-Unis
0.3
0.3
0.3
0.3
0.3
0.3
0.3
0.3
0.3
0.3
0.3
0.3
0.3
0.3
..
Finlande
1.3
1.2
1.3
1.4
1.4
1.3
1.2
1.2
1.2
1.2
1.2
1.2
1.2
France
..
..
1.1
1.1
1.1
1.1
1.2
1.1
1.2
1.3
1.4
1.4
1.5
..
Hongrie
..
..
..
..
..
..
..
..
1.6
1.8
1.8
1.8
1.6
..
Irlande
0.4
0.5
0.4
0.5
0.4
0.5
0.5
0.5
0.6
0.6
0.5
0.5
0.5
..
Islande
..
..
..
..
2.4
2.9
3.0
3.2
3.0
3.3
3.6
3.7
3.4
3.7
Italie
0.8
0.8
0.8
0.9
0.9
0.9
0.9
0.9
0.8
0.8
0.8
0.9
0.8
..
Japon
..
..
..
0.2
0.2
0.2
0.2
0.2
0.2
0.2
0.2
0.2
0.2
..
Luxembourg
1.5
1.5
1.5
1.6
1.7
1.7
1.8
1.6
1.7
1.8
1.9
2.0
2.2
1.7
Norvège
1.5
1.4
1.3
1.2
1.2
1.2
1.2
1.1
1.1
1.2
1.2
1.1
1.1
..
Nouvelle-Zélande
..
..
..
..
..
..
..
..
..
..
1.3
1.3
1.1
..
Pays-Bas
..
..
1.2
1.2
1.1
1.1
1.1
1.4
1.4
1.5
1.5
1.4
1.4
..
Pologne
..
..
..
..
..
..
..
..
..
1.1
1.0
1.0
1.0
..
Portugal
..
..
..
..
..
..
1.2
1.1
1.1
1.1
1.1
1.1
1.1
..
République slovaque
..
..
..
..
..
..
..
..
..
..
1.1
1.2
..
..
République tchèque
Royaume-Uni
..
..
1.2
1.3
1.1
1.1
1.0
1.0
1.1
1.3
1.3
1.2
1.2
..
1.0
1.0 |
0.9
0.9
0.8
0.8
1.0
1.0
1.0
1.0
0.9
0.9
0.9
..
..
..
1.8
1.9
1.8
1.8
1.8
1.1
1.1
1.1
1.1
1.0
1.1
..
Suède
1 2 http://dx.doi.org/10.1787/275713744403
Dépenses des administrations publiques en loisirs et culture
En pourcentage du PIB, 2005
4
3
2
1
h
ya
um e
eUn
i
Po
No
l
o
uv
gn
ell
e
eZé
lan
de
No
rv
èg
e
Po
rtu
ga
l
Ré
pu
S
bli
uè
qu
de
et
ch
èq
ue
Ré
Fin
pu
lan
bli
qu
de
es
lov
aq
ue
Be
lgi
qu
e
Pa
ys
-B
as
Es
pa
gn
e
Fr
an
Da ce
ne
m
ar
k
Ho
Lu ngr
ie
xe
m
bo
ur
g
Isl
an
de
e
ré
ric
Ro
Au
t
Co
Ita
lie
e
ne
ag
em
All
is
nd
Un
po
sat
Ja
Ét
Irla
n
0
1 2 http://dx.doi.org/10.1787/400574077368
244
PANORAMA DES STATISTIQUES DE L’OCDE 2008 – ISBN 978-92-64-04055-7 – © OCDE 2008
QUALITÉ DE VIE • LOISIRS
LOISIRS ET CULTURE
Dépenses des ménages et des administrations publiques en loisirs et culture
En pourcentage du PIB
1993
1994
1995
1996
1997
1998
1999
2000
2001
2002
2003
2004
2005
Allemagne
6.0
5.9
5.9
5.9
6.0
6.1
6.2
6.3
6.3
6.1
6.0
6.0
5.9
..
Autriche
..
..
7.6
7.7
7.7
7.8
8.0
7.9
8.0
7.9
7.8
7.6
7.6
7.5
Belgique
..
..
5.6
5.7
5.9
5.9
6.1
6.2
6.1
6.1
6.0
6.0
6.0
..
Corée
..
..
4.7
4.6
4.5
4.0
4.3
4.8
4.9
5.0
4.8
4.4
4.5
..
6.7
6.8
6.8
6.9
6.9
6.8
6.8
6.7
6.7
6.7
6.9
7.2
6.9
..
Danemark
2006
Espagne
..
..
..
..
..
..
7.1
7.1
7.1
7.0
6.9
6.9
6.9
..
États-Unis
6.0
6.2
6.4
6.5
6.5
6.5
6.6
6.7
6.7
6.7
6.7
6.7
6.7
6.7
..
Finlande
6.6
6.5
6.6
7.0
6.8
6.7
6.6
6.6
6.5
6.5
6.7
6.7
6.9
France
..
..
5.9
5.9
5.9
6.1
6.1
6.2
6.3
6.5
6.6
6.7
6.7
..
Hongrie
..
..
..
..
..
..
..
..
5.8
6.0
6.1
5.9
5.9
..
Irlande
..
..
4.5
4.6
4.1
3.9
3.6
3.9
3.9
3.6
3.5
3.7
3.7
..
Islande
..
..
..
..
9.0
9.6
10.0
10.3
9.9
10.1
10.2
10.2
9.8
9.9
Italie
5.0
5.1
5.0
5.2
5.2
5.3
5.4
5.3
5.2
5.1
5.0
5.1
4.9
..
Japon
..
..
..
5.8
6.0
6.0
6.0
6.3
6.4
6.4
6.4
6.3
6.2
..
Luxembourg
..
..
5.4
5.5
5.6
5.7
5.5
5.2
5.4
5.7
5.5
5.5
5.5
4.9
..
Norvège
6.7
6.6
6.6
6.7
6.6
7.0
7.0
6.2
6.4
6.7
6.8
6.6
6.2
Pays-Bas
..
..
6.4
6.5
6.5
6.6
6.8
6.9
6.8
6.8
6.6
6.4
6.2
..
Pologne
..
..
..
..
..
..
..
..
..
5.5
5.6
5.6
5.0
..
Portugal
..
..
..
..
..
..
5.3
5.2
5.2
5.3
5.2
5.3
..
..
République slovaque
..
..
..
..
..
..
..
..
..
..
5.9
5.8
..
..
République tchèque
..
..
6.6
7.2
7.5
7.4
7.2
7.1
7.3
7.3
7.5
7.2
7.1
..
7.3
7.4 |
7.7
7.8
7.9
8.2
8.4
8.3
8.3
8.5
8.5
8.6
8.6
..
..
..
6.8
6.9
6.9
7.1
7.3
6.6
6.7
6.5
6.5
6.4
6.4
..
Royaume-Uni
Suède
1 2 http://dx.doi.org/10.1787/275745206374
Dépenses en loisirs et culture
En pourcentage du PIB, 2005
Dépenses des ménages
Dépenses des administrations publiques
10
9
8
7
6
5
4
3
2
1
bo
ur
g
All
em
ag
ne
Ho
ng
rie
Be
lgi
qu
e
Pa
ys
-B
as
Ré
No
pu
rv
bli
èg
qu
e
es
lov
aq
ue
Ja
po
n
Su
èd
e
Fr
an
ce
Ét
at
sU
Da nis
ne
m
ar
k
Fin
lan
de
Ré
Es
pu
p
ag
bli
qu
ne
et
ch
èq
ue
Au
No
t
ric
uv
he
ell
eZé
lan
Ro
de
ya
um
eUn
i
Isl
an
de
ga
l
Lu
x
em
lie
ne
tu
Po
r
Po
log
e
ré
Ita
Co
Irla
nd
e
0
1 2 http://dx.doi.org/10.1787/400582145484
PANORAMA DES STATISTIQUES DE L’OCDE 2008 – ISBN 978-92-64-04055-7 – © OCDE 2008
245
QUALITÉ DE VIE • SOCIÉTÉ
INACTIVITÉ DES JEUNES
QUALITÉ DE VIE
Société
Lorsque les jeunes n’ont pas d’emploi et ne sont pas non
plus scolarisés, il y a de bonnes raisons de s’inquiéter pour
leur bien-être actuel et pour leur avenir. Compte tenu de
l’importance grandissante que revêt le bagage scolaire pour
s’insérer avec succès dans la vie active, il est difficile aux
personnes qui sont sorties de l’école sans diplôme suffisant
d’accéder à un emploi ouvrant des perspectives
professionnelles intéressantes. La proportion de jeunes qui
n’ont pas d’emploi et ne sont pas non plus scolarisés est un
indicateur de l’effectif des individus susceptibles de devenir
plus tard des « exclus », personnes dont le revenu se situe au
niveau du seuil de pauvreté ou au-dessous et qui ne
possèdent pas les compétences nécessaires pour améliorer
leur situation matérielle.
Définition
L’indicateur considéré représente la proportion de jeunes
âgés de 15 à 19 ans qui ne sont pas scolarisés, ne suivent pas
de formation et n’ont pas d’emploi, dans la population
totale des jeunes de ce groupe d’âge. Les jeunes scolarisés
comprennent aussi bien ceux qui étudient à temps partiel
que ceux qui le font à temps plein, mais ne comprennent
pas ceux qui suivent un enseignement non formel ou
participent à des activités d’enseignement de très courte
durée. La notion d’emploi est définie conformément aux
Lignes directrices de l’OIT et s’applique à toutes les
personnes qui ont travaillé pour obtenir un gain monétaire
pendant au moins une heure au cours de la semaine ayant
précédé l’enquête.
Comparabilité
Des définitions types sont fournies aussi bien pour « être
scolarisé » que pour « avoir un emploi » et les pays
s’efforcent de les appliquer correctement. Le principal
problème de comparabilité tient au fait que, dans certains
pays, les jeunes qui effectuent leur service militaire
obligatoire ne sont comptabilisés ni parmi ceux qui exercent
un emploi, ni parmi les personnes scolarisées ; ils sont par
conséquent compris dans le numérateur du rapport, alors
que l’on pourrait logiquement considérer qu’ils sont à la fois
en formation et en train d’exercer un emploi. Cependant,
dans les pays où la conscription existe toujours, la durée du
service militaire est assez courte et la réaffectation des
appelés à la catégorie emploi/éducation ne modifierait pas
beaucoup les chiffres présentés ici.
Tendances à long terme
En moyenne, dans l’ensemble des pays pour lesquels des données
sont disponibles, environ 7.3 % des adolescents et 8.3 % des
adolescentes n’étaient ni à l’école ni au travail en 2005. Il existe
d’importantes différences entre les pays : aux Pays-Bas, en
Pologne et en Suède, moins de 4 % des adolescentes étaient dans
cette situation, et au Danemark, en Allemagne, aux Pays-Bas, et
en Pologne moins de 4 % des adolescents n’étaient ni à l’école ni
au travail. La situation est bien pire en Italie où cette proportion
dépasse 10 % et en Turquie où plus de 20 % n’est ni à l’école ni au
travail.
Dans l’ensemble de la zone de l’OCDE a été observée une
diminution des pourcentages d’adolescents qui n’ont pas
d’emploi, ni ne sont scolarisés, mais cette baisse a été des plus
marquées dans le cas des filles. L’amélioration des conditions de
travail en général, et le fait que les jeunes, et en particulier les
filles, soient scolarisés plus longtemps qu’il y a dix ans, explique
en partie cette évolution.
Plusieurs caractéristiques des marchés du travail et des systèmes
de formation influent sur la facilité avec laquelle se fait le passage
de l’école à la vie active. Les travaux réalisés sur le sujet par l’OCDE
ont montré que, dans les pays nordiques et les pays anglophones,
cette transition s’effectuait plus aisément que dans les pays de
l’Europe continentale et méridionale. Outre le gaspillage de
capital humain et le risque de marginalisation sur le marché du
travail, une insertion tardive dans la vie professionnelle aura pour
effet d’amener beaucoup de jeunes à vivre plus longtemps avec
leurs parents et de différer ainsi la formation de familles
indépendantes, ce qui accentuera encore la baisse de la fécondité.
246
Source
• OCDE (2007), Regards sur l’éducation, OCDE, Paris.
Pour en savoir plus
Publications analytiques
• OCDE (2000), De la formation initiale à la vie active : Faciliter
les transitions, OCDE, Paris.
• OCDE (2007), Des emplois pour les jeunes, OCDE, Paris.
• OCDE (2007), Perspectives de l’emploi de l’OCDE, OCDE, Paris.
• OCDE (2007), Panorama de la société : Les indicateurs sociaux
de l’OCDE Édition 2006, OCDE, Paris.
Sites Internet
• Regards sur l’éducation de l’OCDE, www.oecd.org/edu/
eag2007.
• Youth Employment Summit, www.yesweb.org.
PANORAMA DES STATISTIQUES DE L’OCDE 2008 – ISBN 978-92-64-04055-7 – © OCDE 2008
QUALITÉ DE VIE • SOCIÉTÉ
INACTIVITÉ DES JEUNES
Jeunes entre 15 et 19 ans non scolarisés et sans emploi
En pourcentage de la population dans cette classe d’âge
Hommes
Femmes
1995
2000
2001
2002
2003
2004
2005
1995
2000
2001
2002
2003
2004
2005
Allemagne
..
5.2
4.9
4.3
4.7
3.5
3.8
..
6.3
5.3
5.1
4.8
3.7
5.0
Australie
9.2
6.4
7.9
6.9
6.4
7.6
7.1
10.6
7.3
7.2
7.2
7.2
7.4
7.7
Autriche
..
..
..
8.1
5.8 |
7.2
7.6
..
..
..
4.4
5.4
7.5
6.2
Belgique
9.9
6.7
6.0
7.3
6.9
5.8
5.9
11.2
6.3
6.4
6.4
7.4 |
3.9
6.6
Canada
7.6
7.8
6.9
7.3
7.5
8.4
6.5
7.7
6.6
5.6
5.9
6.2
6.6
5.8
Danemark
1.9
1.9
4.7
2.4
3.3
1.9
3.5
4.1
3.6
2.7
2.4
1.7
2.3
5.2
Espagne
11.2
7.7
6.6
6.9
7.3
7.3
8.3
11.9
8.2
7.3
7.5
7.4
7.9
8.8
États-Unis
6.4
6.8
6.9
6.4
..
6.5
5.9
9.3
7.3
8.0
7.5
..
7.3
6.3
Finlande
..
..
..
..
6.5
5.4
5.6
..
..
..
..
6.0
6.4
4.9
France
2.3
3.4
3.4
3.7
.. |
6.2
6.8
2.7
3.2
3.5
3.2
.. |
4.5
5.5
Grèce
6.7
6.9
5.6
5.2
9.0
8.7
9.5
14.1
11.2
9.7
7.5
10.1
11.3
10.0
Hongrie
11.8
8.6
8.8
8.3
6.6
6.6
6.3
9.7
8.6
7.8
7.8
6.9
5.8
6.5
Irlande
..
4.5
4.3
5.2
5.3
9.6
4.8
..
4.3
3.9
4.5
5.0
10.3
4.0
Islande
14.8
..
..
..
..
..
..
14.8
..
..
..
..
..
..
Italie
..
12.2
12.1
10.8
9.1
11.1
10.9
..
14.1
13.0
10.3
9.4
10.9
11.4
Japon
5.0
7.3
6.5
8.3
9.0
8.1
7.6
9.3
10.3
10.5
10.6
10.7
10.4
9.9
Luxembourg
7.3
..
..
..
..
..
..
8.8
..
..
4.3
..
4.0
..
Mexique
12.0
7.6
7.2
7.4
8.1
7.6
..
34.4
29.0
28.2
27.4
27.8
26.3
..
Nouvelle-Zélande
..
..
..
..
..
..
8.4
..
..
..
..
..
..
8.6
Pays-Bas
..
3.8
2.9
4.0
4.7
3.5
3.8
..
3.6
4.4
3.7
4.1
3.4
3.8
Pologne
7.3
5.0
6.2
3.5
3.8
3.0
2.2
5.1
4.0
5.4
2.6
2.7
2.1
1.2
Portugal
8.7
6.2
5.4
7.7
8.2
9.0
8.1
9.6
9.2
9.5
6.8
9.4
10.6
8.8
République slovaque
17.4
27.8
27.9
17.7
15.2
8.6
5.6
14.3
24.7
24.9
13.5
9.9
7.1
7.0
République tchèque
6.0
7.3
6.4
5.8
5.4
5.0
5.5
6.9
8.5
7.3
6.3
6.2
6.4
5.1
..
8.2
8.3
8.2
9.7
9.0
9.7
..
7.9
8.0
8.9
9.2
9.0
9.0
Suède
8.0
4.7
5.4
5.9
5.1
6.4
6.0
3.2
2.4
3.1
3.3
3.4
3.2
3.3
Suisse
22.9
7.3
6.4
5.8
7.1
7.6
7.6
25.5
8.5
7.2
5.8
8.8
6.8
6.8
Turquie
14.3
17.8
19.2
21.7
22.6
24.7
25.8
41.6
46.5
47.0
45.6
44.3
47.1
50.1
Moyenne OCDE
9.5
7.9
7.8
7.4
7.7
7.5
7.3
12.7
10.5
10.3
8.7
9.3
8.9
8.3
Royaume-Uni
1 2 http://dx.doi.org/10.1787/275745325013
Jeunes entre 15 et 19 ans non scolarisés et sans emploi
En pourcentage de la population dans cette classe d’âge, 2005
Hommes
Femmes
50.1
30
25
20
15
10
5
Po
log
Da ne
ne
m
ar
Pa k
ys
-B
as
All
em
ag
ne
Ré
pu
bli Irlan
de
Ré que
pu
bli tchè
qu
q
e s ue
lov
aq
ue
Fin
lan
de
Ét
at
sUn
i
Be s
lgi
qu
e
Su
èd
e
Ho
ng
rie
Ca
na
da
Fr
an
ce
A
Mo ustr
a
ye
nn lie
eO
CD
E
Au
tri
ch
e
Su
iss
e
Ja
po
n
Po
rtu
ga
l
E
No
uv spag
ell
n
e
eZé
lan
de
Ro Grèc
ya
um e
eUn
i
Ita
lie
Tu
rq
uie
0
1 2 http://dx.doi.org/10.1787/400587154837
PANORAMA DES STATISTIQUES DE L’OCDE 2008 – ISBN 978-92-64-04055-7 – © OCDE 2008
247
QUALITÉ DE VIE • SOCIÉTÉ
INÉGALITÉ DES REVENUS
La répartition du revenu dans un pays est importante pour
au moins deux raisons. Les inégalités peuvent inciter les
individus à améliorer leur situation par le travail,
l’innovation ou l’acquisition de nouvelles compétences.
Toutefois, on pense souvent que la délinquance, la pauvreté
et l’exclusion sont liées aux inégalités dans la répartition du
revenu.
| 11,447
|
61/hal-univ-paris-dauphine.archives-ouvertes.fr-hal-03166657-document.txt_5
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 9,351
| 13,902
|
4 Voir Amiraslani
,
Lins
,
Serv
aes et Tamayo
(2019)
, Bond market benefits of corporate social capital, disponible sur www. ssrn.com
Si la performance opérationnelle des entreprises responsables est meilleure, comment l'expliquer? Les entreprises avec les meilleures notes RSE dégagent des marges brutes supérieures à celles qui sont mal notées, et également une croissance du chiffre d'affaires plus importante. Ces résultats suggèrent que les clients sont plus fidèles aux entreprises plus responsables durant les périodes de crise.
Édith Ginglinger
Approfondissant la relation entre RSE et consommateurs, une autre recherche considère qu'une condition nécessaire pour que les dépenses liées à la RSE modifient le comportement du consommateur, et donc aient un impact sur la valeur de la firme, est que le consommateur soit conscient du comportement responsable de l'entreprise. Elle montre que les activités liées à la RSE ont un impact sur la valeur des entreprises qui font beaucoup de publicité et qui ont une réputation de « bon citoyen », mesurée par l'appartenance de la firme au classement du magazine « Fortune » des entreprises les plus admirées5.
La satisfaction des salariés
La satisfaction des salariés est également un facteur explicatif d'une meilleure résilience durant les crises. Les salariés des entreprises les plus orientées RSE sont plus productifs durant la crise. Dans l'étude précitée, le chiffre d'affaires par salarié des firmes dans le quartile supérieur des notes RSE est de 10 % supérieur à celui des firmes dans le quartile inférieur des notes RSE6. L'appartenance à la liste des « meilleures entreprises où travailler » a un impact positif sur les performances boursières, mais ce résultat est valide uniquement dans les pays où le marché du travail est flexible7. Enfin, utilisant des données administratives suédois es, une autre recherche montre que les salariés acceptent des salaires inférieurs de 10 à 20 % pour travailler dans des secteurs plus responsables8. Cet écart est le plus important pour les salariés les plus qualifiés et croît sur les périodes récentes, les générations Y et Z semblant particulièrement concernées. Les firmes responsables sont ainsi en mesure d'attirer et de fidéliser des talents pour lesquels les motivations non monétaires sont importantes, ce qui pourrait également contribuer à expliquer leur résilience. 5 Servaes et Tamayo (2013), disponible sur ssrn. 7 Voir Edmans, Li et Zhang (2020), disponible sur ssrn. 6 Voir Lins et al (2017), cité en note 3. 8 Voir Kruger, Metzger et Wu (2020), disponible sur ssrn.
Covid-19 | Regards croisés sur la crise 2020 : un retournement majeur?
Philippe Chalmin Professeur d'histoire économique
Confrontés au défi de brosser les grandes lignes de passés plus ou moins lointains, les historiens butent sur les bornes à placer de manière souvent arbitraire pour délimiter des « périodes » à peu près cohérentes. Et ce qui peut être relativement facile pour des espaces géographiques limités tient de la mission presque impossible lorsque l'on essaie de raisonner à l'échelle de la planète. 77 La crise provoquée en 2020 par la Covid-19 ne peut être analysée comme une simple crise économique et financière comparable à celle de 2008. La thèse soutenue ici est qu'il s'agit d'une crise beaucoup plus profonde de l'ampleur de celles des années trente et des années soixante-dix en termes de retournement des politiques économiques dans l'éternelle alternance entre l'état et le marché. 2020 mettrait ainsi un terme aux « Trente Glorieuses » de la mondialisation heureuse et ouvrirait une nouvelle période de l'histoire économique mondiale. Notre chronologie classique est avant tout occidentale lorsqu'elle distingue les grandes périodes « antique, médiévale, moderne et contemporaine ». L'histoire contemporaine couvre maintenant plus de deux siècles et au moins deux temps de mondialisation, et autant de replis. Au-delà de l'histoire politique et bien souvent militaire, les économistes se sont eux aussi saisis de l'épineuse question des cycles et ont ainsi immortalisé Kondratieff, Juglar et quelques autres. Mais les divergences d'interprétation demeurent et obscurcissent un peu plus l'analyse historique. Celle-ci a bien sûr du mal à s'extraire des tensions de l'immédiat : que n'a-t-on écrit à chaud sur les ruptures provoquées par le 11 septembre 2001 ou par la crise financière de 2008? L'analyse de la crise de 2020, alors qu'elle n'est pas terminée pose le même problème. Sera-t-elle oubliée une fois la pandémie jugulée? Disparaitra-t-elle en note de bas de page des manuels d'histoire du futur comme cela a été le cas de la grippe espagnole, au bilan pourtant autrement plus lourd? Telle n'est pas notre thèse. En employant ce mot – mais hypothèse aurait pu convenir – l'auteur prend le risque de la subjectivité de l'interprétation et accepte à l'avance les critiques et les opinions contradictoires. La crise de 2020 serait à notre sens à l'origine d'une rupture majeure comparable aux deux grands chocs qu'a connu le XXe siècle : la crise dite de 1929 et celle des années soixante-dix. Ce serait, bien plus que les guerres mondiales, le troisième grand retournement de l'histoire économique – et bien au-delà du monde contemporain – mettant fin aux « Trente Glorieuses » de la deuxième mondialisation. Pour comprendre cette analyse, il faut reprendre une perspective historique.
LA RUPTURE DES ANNÉES TRENTE
Ce que l'on appela la crise de 1929 du fait de l'ultime étincelle de la crise boursière aux États-Unis s'étendit en réalité sur l'ensemble de la décennie suivante tant la véritable sortie de crise n'intervint qu'avec la montée vers la Seconde Guerre mondiale. Ce fut la crise économique la plus profonde que le monde ait connue et son ampleur dépasse de beaucoup ce que l'on a connu en 2020. Ce n'est pas pour rien que l'on parla à son sujet non pas de crise, mais de « grande dépression ». Mais au-delà de cette dimension macroéconomique, elle marqua une rupture que le grand historien britannique (et marxiste) Éric Hobsbawn résuma ainsi : « La grande dépression détruisit le libéralisme économique pour un demi-siècle ». C'est vraiment la dernière page de ce libéralisme qui avait dominé le XIXe siècle qui se tourne alors. À vrai dire, il y avait bien eu quelques prémisses antérieures : en Allemagne, Bismarck avait jeté les premières bases d'un embryon d'État-providence ; la Première Guerre mondiale avait contraint les états belligérants à prendre le contrôle de leurs économies ; enfin, la jeune URSS semblait offrir un autre modèle en un temps marqué de tous côtés par l'effervescence idéologique. Les uns après les autres, les gouvernements furent obligés d'abandonner le « laisser faire » qui jusque-là tenait bien souvent lieu de politique économique : du New Deal américain au Front populaire français en passant par le corporatisme italien, partout ce fut la montée en puissance de l'intervention publique, la mise en place de protections sociales, des nationalisations et bientôt même de la planification. Dans certains cas, on supprima même les marchés, mais en général au moins les encadra-t-on. La Seconde Guerre mondiale accentua encore le rôle de l'État confronté à une guerre totale. Mais la justification de la guerre fut aussi, du rapport Beveridge au Royaume-Uni à la Charte d'Alger en France, la nécessité d'introduire une plus grande justice sociale. Au lendemain de la guerre, alors qu'un tiers de la population mondiale vivait sous ce qui devint le joug communiste, que la plupart des pays accédant à l'indépendance isissaient des modèles « socialistes », les pays occidentaux ouvraient une période que Jean Fourastié qualifia de « Trente Glorieuses ». Dans un contexte de stabilité et de marchés régulés, ce fut le triomphe de l'économie mixte marqué par la revanche économique des vaincus de 1945, l'Allemagne et le Japon, mais aussi par l'épanouissement d'un « modèle » français original caractérisé par le rôle central de l'État. Cette période prit fin avec les années soixante-dix.
LE CHOC DES ANNÉES SOIXANTE-DIX
La crise fut là tout aussi longue avec la disparition du système monétaire de Bretton Woods en 1971 et bien sûr le premier choc pétrolier de 1974. Du point de vue conjoncturel, la récession fut brève, mais le rythme de croissance se trouva durablement divisé par deux. En réalité, les racines de la crise étaient 78 plus profondes : on les retrouve dans la contestation de la jeunesse soixantehuitarde, dans la remise en cause du modèle de croissance (« Halte à la croissance » publié en 1971), dans la crise des valeurs de la société occidentale alors même que le modèle communiste semblait mieux absorber le choc (ce n'était pas le cas, mais on ne le sut que plus tard). Ce furent des années de « stagflation » marquées un peu partout par la crise des États-providence et par la remise en cause de modèles qui jusque-là avaient fait pourtant la preuve de leur efficacité. Le grand paradoxe de cette crise est celui d'une contestation de nature idéologique à la fois en Occident et dans ce qui devient le Tiers Monde qui déboucha sur un virage libéral (on parla avec un peu de mépris de « néolibéralisme »), délaissant la pensée keynésienne jusque-là dominante pour des auteurs comme Hayek, Schumpeter sans oublier l'école de Chicago. Du point de vue politique, ce fut à partir de la fin des années soixante-dix le temps de Thatcher, Reagan et au moins après 1983 de Mitterrand. Partout, on dérégula, on privatisa des pans entiers de ce qui était considéré comme des services publics. L'économie de marché redevint la règle. Le mouvement de balancier se fit encore plus fort au fur et à mesure qu'une grappe d'innovations technologiques formait ce qui devint une véritable révolution industrielle dont profitèrent des pays redevenus « agiles » à l'image de la Silicon Valley californienne. Cerise sur le gâteau, les réformes entreprises dès 1978 en Chine et puis surtout la chute du communisme soviétique sonnèrent, après la disparition des fascismes, le glas des grandes idéologies du XXe siècle. En un temps de « mondialisation » et de nouvelle économie » s'ouvrirent alors de nouvelles « Trente Glorieuses ». En Occident, on retrouvait des rythmes de croissance (4 à 5 %) oubliés depuis quelques décennies : on ne rêvait plus que de « Start ups » alors que s'accumulaient les réussites de quelques nouveaux capitalistes. À l'Est, le temps était à la transition dont profitèrent quelques oligarques. Mais surtout, ce fut une période marquée Covid-19 | Regards croisés sur la crise Philippe Chalmin par le décollage économique de ce que l'on commença à appeler les pays « émergents ». Il y avait bien eu les dragons asiatiques, mais là c'était la Chine puis l'Inde, tout le reste de l'Asie et même un peu d'Amérique latine, au total presque la moitié du monde. La mondialisation permettait la circulation des marchandises et des services, le « temps réel » devenait une réalité, les réseaux apportaient la prospérité à la notable exception des migrations des hommes (immense différence avec la mondialisation de la fin du XIXe siècle). Ces trente glorieuses de cette mondialisation « heureuse » ne furent pas uniformes et furent ponctuées de crises plus ou moins profondes, mais en général vite effacées de la mémoire économique. Qui se souvient encore de la crise asiatique de 1997 (qui alla jusqu'en Russie et au Brésil), de l'éclatement de la bulle boursière autour d'internet en 2000 et même de la crise dite des « subprimes » en 2008? À chaque fois, le rebond fut rapide et les bonnes résolutions furent vite oubliées. Le monde marchait la fleur au fusil, autour de 4 % de croissance économique mondiale quand même lorsqu'apparut un petit virus. TOUT N'ÉTAIT PAS SI ROSE! En réalité, la crise de 2008 avait été un premier révélateur, un premier foyer vite éteint par des pompiers zélés à coup d'endettement public. Mais un peu comme dans les années soixante, les années « dix » du XXIe siècle furent marquées de multiples craquements. Il y eut d'abord la prise de conscience par toute une frange de la jeunesse occidentale de l'échec d'un modèle de croissance qui ignorait les défis climatiques et environnementaux. Alors que la petite Greta était la personnalité de l'année 2019, on relisait « Halte à la croissance » et se propageait même dans certains milieux une culture du catastrophisme. Si la croissan ce restait soutenue, elle apparaissait de plus en 79 plus déséquilibrée et porteuse d'inégalités que ce soit à l'intérieur des pays notamment en ce qui concerne les « très » riches (les 0,1 %), ou bien entre les pays et les régions du monde, entre ceux ayant décollé à l'image de la Chine et les autres comme le continent africain. Ces dernières années, nombre de pays jusque-là considérés comme émergents à l'image du Brésil, de l'Afrique du Sud et même de l'Inde avaient montré leurs limites. Du point de vue global, il apparaissait de plus en plus difficile d'apporter quelque semblant de régulation à cette mondialisation : G7, G20, COP, Rounds de l'OMC tournaient à la farce. La gouvernance mondiale était à peu près inexistante alors que le protectionnisme, oublié depuis son retour dans les années trente revenait en force, qu'un peu partout éclataient des conflits commerciaux attisés par la montée en puissance de la Chine. Dans le champ des idées, le « néo-libéralisme » était de plus en plus contesté et l'on donnait le Nobel d'économie à Sen ou Stiglitz au nom d'un « néokeynésianisme » mal digéré. Tout ceci restait cependant encore limité. Même Donald Trump n'avait pas mis un terme à la prospérité américaine. En Europe, l'Allemagne profitait encore des réformes Schröder du début du siècle tandis que la France se révélait par contre incapable de faire évoluer un modèle centralisé et de plus en plus sclérosé. Ailleurs, la Chine, avec ses nouvelles Routes de la soie, dessinait une nouvelle géographie économique quelque peu perturbatrice. Des fissures donc, des failles, mais difficile encore de parler de brèches.
L'ÉTINCELLE DE LA COVID 2020
Et pourtant, le poison de la Covid-19 s'est glissé un peu partout remettant en cause les certitudes les mieux affirmées. De plus en plus soumis à des logiques économiques, voire marchandes, les systèmes de santé publique ont montré leurs limites dans de très nombreux pays parmi les plus avancés. Comme en 1929, la panne économique a obligé les États à intervenir Covid-19 | Regards croisés sur la crise Philippe Chalmin lourdement en faisant exploser un endettement public rendu supportable par la faiblesse des taux d'intérêt. Mais au delà, la pandémie a ouvert des abîmes de doutes quant à l'efficacité de la « main invisible » du marché. Les doutes dans un domaine touchant directement chaque individu – sa propre santé – se sont ajoutés à d'autres doutes concernant le réchauffement de la planète, la détérioration de l'environnement et de la biodiversité (ou du moins leur perception), la paupérisation d'une partie des populations exclue de la révolution digitale Dans un texte récent, le pape François, le chef de l'Église catholique qui compte plus d'un milliard de fidèles dans le monde, a fustigé « le désintérêt pour le bien commun instrumentalisé par l'économie mondiale » (Fratelli Tutti, octobre 2020). Cette vision est bien représentative des réactions qu'a suscitées la crise et que l'on retrouve dans les idées de solidarité, de bienveillance et plus largement de bien commun qu'elle a pu encourager. Ne nous faisons toutefois pas trop d'illusion sur ce qui a pu être pensé ou écrit sur le « monde d'après ». Tout ceci sera vite oublié au moins en ce qui concerne les élans les plus superficiels. On sait ce qu'il en fut des rêves des années soixante-dix. Là n'est pas en effet l'essentiel. La Covid-19 a avant tout accentué plusieurs tendances qui étaient à l'oeuvre ces dernières années. La première est sans conteste à peu près partout le renforcement de l'État en particulier dans sa fonction d'État-providence. Cela est bien sûr amplifié par les plans de relance mis en oeuvre dans la plupart des pays occidentaux et même pour la première fois au niveau européen. Bruxelles qui était devenu paradoxalement un des points d'ancrage majeurs d'un libéralisme presque doctrinaire commencerait même à faire sa mue. L'État deviendrait ainsi un peu plus le garant du bien commun, mais aussi des biens communs (nature, 80 climat, alimentation) et l'intervention publique retrouverait alors toute sa légitimité. Dans l'éternel balancement entre le marché et l'État, 2020 marquerait ainsi symboliquement un retournement. Remarquons toutefois la situation particulière de la France, pays dont le modèle centré sur l'État a fait longtemps illusion au point d'évoluer à contretemps du reste du monde (les nationalisations de 1981). La Covid-19 a marqué une perte de confiance des Français dans leur appareil sanitaire, politique et même administratif. L'évolution risque donc d'y être différente. Cette prise de conscience peut-elle aller jusqu'à plus de ation internationale? Cela paraît bien optimiste. La Covid-19 marque en tout cas un peu plus l'avènement de la Chine au premier rang économique et géopolitique. La Chine n'est plus un pays émergent, mais commence à connaître les affres de la maturité, y compris dans ses tentations impérialistes. Seul grand pays au monde à enregistrer une croissance positive en 2020, la Chine a creusé un peu plus l'écart alors que la seconde vague de la Covid-19 paralyse les économies occidentales. Ceci ouvre une nouvelle période de relations internationales plus équilibrées, une sorte de retour à un ordre westphalien oublié depuis 1990, un nouvel équilibre de la mondialisation. les échanges mondiaux) et selon les secteurs d'activité (les technologies permettant les interactions à distance prenant le pas sur celles permettant la mobilité humaine), Cette circonstance inédite implique de concevoir et mettre en oeuvre des politiques de relance également inédites. Très généralement, comme observé après 2008, les politiques de relance privilégient les leviers les plus puissants à court terme, avec un effet sur l'emploi et sur le PIB, mais sans considération des conséquences à plus long terme (notamment en termes d'environnement et de santé publique). Il est manifeste que, pour la France, la stratégie de sortie de crise de 2008 et l'action publique durant les années suivantes n'ont pas permis d'améliorer la « résilience » de notre société aux chocs de la décennie 2010 : • la dépendance au pétrole, qui a conduit à la crise des « gilets jaunes » en 2018, n'a pas été réduite, laissant la collectivité à la merci d'un prochain choc du prix du baril ; • la pollution de l'air, qui continue à coûter à la collectivité environ 50 milliards d'euros et à tuer 50 000 personnes en France chaque année (hors Covid-19) n'a pas été sensiblement réduite ; • l'habitat précaire où vivent plus de 3 millions de ménages – dont la santé est fragilisée par ces conditions de vie – a été insuffisamment amélioré ; • Autrement dit, les décisions prises pour tenter de rebondir après le précédent grand choc nous ont mal préparées à affronter le suivant. Pour preuve, la dette publique française avoisinait les 65 % du PIB avant la crise des subprimes, en 2008, et elle sera sans doute du double après la crise de la Covid-19, ce qui indique clairement que la France a pris de front ces chocs majeurs Et force est de constater que l'exemple de la France n'est pas l'exception comme le souligne l'OCDE (2020)1. Le problème est que, de surcroît, la pression du changement climatique est venue s'ajouter au cahier des charges de cette sortie de crise sanitaire. Cinq années après l'Accord de Paris, les émissions de gaz à effet de serre ont frôlé en 2019 les 60 milliards de tonnes, contre 55 milliards au moment de la COP 21. Et, comme l'indique l'ONU, la crise sanitaire n'aura qu'un effet négligeable sur le réchauffement climatique. 2 UN Environment Programme's, Green pandemic recovery essential to close climate action gap – UN Emissions Gap Report 2020. Aussi, à un moment où des contraintes pèseront sur les ressources publiques mobilisables, l'optimisation des ressources engagées dans un effort de relance est la clé. Il est en effet impératif que chaque euro public investi produise le maximum d'effets positifs pour la société, ce qui suppose d'en Covid-19 | Regards croisés sur la crise Patrice Geoffron analyser l'impact économique observable à court et moyen termes, certes, mais plus largement, d'intégrer à la sélection des mesures les bénéfices environnementaux (qui permettront de contenir les menaces du changement climatique) et sanitaires (qui permettront de mieux résister à un prochain choc pandémique), c'est-à-dire de faire d'une « pierre trois coups ». Pour répondre à la forte demande sociale de « résilience » qu'a révélé la crise sanitaire, ce qui constitue un impératif.
UNE RELANCE VERTE AUTOFINANCÉE PAR SES « BÉNÉFICES CACHÉS »?
Une politique publique est généralement définie par un objectif direct et des coûts de mise en oeuvre, mais peut également présenter des bénéfices additionnels (on parle alors de « co-bénéfices » dans le jargon des économistes). Dans le cadre d'une relance verte, il s'agira sans doute de regarder avant toute chose les gains en emplois (renouvelables, véhicules électriques, bâtiment, ) et les pertes dans les secteurs contraints (véhicules thermiques, aéronautique peut-être, ). Et, en fonction des économies, la balance entre pertes et gains pourra varier : selon l'intensité carbone de la production nationale, c'est-à-dire (grosso modo) la dépendance aux énergies fossiles. Mais l'essentiel de l'impact économique est « caché » au-delà des effets directement observables sur l 'emploi et la valeur ajoutée, étant lié aux usages des technologies vertes et à leurs effets sur la société : amélioration de la santé humaine, réduction des pertes de biodiversité, réduction des chocs climatiques futurs, réduction des risques de pandémie,. Ainsi, de nombreux travaux de recherche suggèrent qu'atteindre les ambitions de l'Accord de Paris sur le climat (en maintenant la température entre à 1,5° et 2°C à la fin du siècle) permettrait3 : 82 • de dégager des avantages en termes de santé évalués entre 40 à 200 dollars par tonne de CO2 évitée (variable selon les pays considérés). • de réduire annuellement les morts prématurés de 0,5 million en 2030 et de 1,3 millions en 2050, à l'échelle globale. • de diminuer de plus de 5 % du PIB les effets négatifs sur l'économie mondiale lorsque les combustibles fossiles sont remplacés par des énergies propres. • au total, la seule amélioration de la qualité de l'air permettrait de couvrir 75 % des coûts de mise en oeuvre d'une politique verte alignée avec les objectifs de l'Accord de Paris. C'est bien dans cette perspective que le Haut Conseil pour le Climat, dans un rapport spécial d'avril 2020, soulignait pour la France le besoin de prendre en compte les co-bénéfices d'une relance qui « doit être verte, pas grise, maximiser les co-bénéfices pour le climat et les écosystèmes, et ne pas verrouiller des trajectoires carbonées. Les synergies entre climat, environnement et santé doivent être renforcées – lutte renforcée contre les pollutions, contre la déforestation importée, amélioration nutritionnelle des régimes alimentaires, évolution des modes de transport »4.
EXEMPLE : REMBOURSER 15 MILLIARDS D'INVESTISSEMENT DANS LE FRET FERROVIAIRE EN FRANCE PAR LES POLLUTIONS ÉVITÉES5
3 Voir Geoffron P., Leguet B., Co-Bénéfices environnementaux et sanitaires de l'action publique : It's (also) the economy, stupid!, I4CE- Terra Nova. 4 Haut Conseil pour le Climat, Climat, santé : mieux prévenir, mieux guérir, avril 2020. 5 Voir détails de l'évaluation in : Geoffron, P., Thirion, B., Les co-bénéfices du fret ferroviaire : éléments d'évaluation et propositions, Rapport d'analyse pour l'Alliance 4F (Fret Ferroviaire Français du Futur), juin 2020. Le fret ferroviaire constitue un bon exemple des effets massifs (mais « cachés ») d'une mesure de relance verte. L'objectif est de relancer une activité qui peine à sortir du marasme : la part du rail dans le transport de marchandises avoisine les 9 %, bien loin derrière la route (90 %), le solde étant assuré via les fleuves et canaux. Ce chiffre était de 40 % au début des années 1970. En Suisse la part modale du fret ferroviaire est actuellement de 34 %, de 32 % en Autriche ou 18 % en Allemagne. La plupart de nos voisins ayant des systèmes électriques nettement plus carbonés qu'en France, il y a un « paradoxe » à observer cette érosion du fret ferroviaire au fil des décennies, jamais inversée malgré plusieurs plans de relance dédiés : le large recours à une électricité décarbonée (car nucléaire) permet au rail français d'émettre 8 fois moins de particules que la route et 9 fois moins de CO2 par tonne-kilomètre. Pour mettre un terme à ce paradoxe, la France va devoir intensifier son soutien public au fret ferroviaire, comme le font les pays plus performants en Europe : la renaissance du fret nécessite l'adaptation massive du réseau (voies de service, triages et caténaires, mises au gabarit des ouvrages d'art pour accueillir des trains longs et lourds, ) et surtout la désaturation des noeuds ferroviaires avec le contournement de différentes métropoles (Lyon, Lille et Paris). Ces efforts de « génie civil » devront être complétés d'une indispensable transition numérique dans la décennie : marketplaces digitales, information en temps réel, maintenance prédictive, trains autonomes peut-être, Quel est l'effort financier nécessaire? Pour doubler la part modale du fret ferroviaire d'ici 2030, et mettre un terme à ce paradoxe français, l'effort d'investissement est estimé à environ 15 milliards d'euros, dont une partie est susceptible d'être prise en charge dans le cadre du Green Deal européen. Face à un effort aussi considérable – dans une période où de nombreux secteurs d'activité appellent des soutiens – il est indispensable de prendre en compte tous les effets d'un euro engagé. Une étude6 propose d'aller au-delà des observations en termes d'emplois, en estimant les coûts externes susceptibles d'être évités par un doublement de la part modale du fret ferroviaire en France, par une modélisation appuyée sur des données européennes récentes. 6 Voir détails de l'évaluation in : Geoffron, P., Thirion, B., Les co-bénéfices du fret ferroviaire
:
éléments d'é
valuation
et propositions,
Rapport
d'
analyse pour
l'Alliance 4F (Fret Ferroviaire Français du Futur), juin 2020. Covid-19 | Regards croisés
sur
la
crise Le capitalisme viral peut-il sauver la planète?
Christian de Perthuis Professeur des universités LEDA
L'un des effets les plus sûrs de la pandémie est d'accélérer la numérisation de l'économie, la bascule vers le « capitalisme viral » suivant la formule d'Yves Citton. Les indices boursiers nous le rappellent tous les jours. Exxon, longtemps première capitalisation mondiale, a été sorti du Dow Jones. Tesla vaut plus cher que Ford et General Motors réunis, et Zoom plus que l'ensemble des compagnies aériennes et hôtelières américaines. Cette mue du capitalisme thermo-industriel d'hier basé sur les énergies fossiles était amorcée depuis la 84 La pandémie a accéléré la numérisation de l'économie, la bascule vers le « capitalisme viral » suivant la formule d'Yves Citton1. Cette mue nous éloigne du capitalisme d'hier basé sur les énergies fossiles. Elle dope la transition énergétique en substituant l'électron vert aux sources fossiles et en investissant dans les réseaux intelligents et l'efficacité énergétique. Mais le capitalisme viral pousse au consumérisme, incompatible avec la sobriété énergétique. Il génère des inégalités croissantes de patrimoine minant la cohésion sociale. Il préconise des logiques de contrôle de la nature quand la résilience exige d'investir dans la diversité du milieu naturel et des êtres vivants le composant. C'est pourquoi la transition bas carbone implique de puissantes régulations pour subordonner la logique du capitalisme viral à l'intérêt général et à l'impératif de préservation de la planète. crise financière de 2009. Le coronavirus lui a donné un coup d'accélérateur qui va doper la transition énergétique.
LES RESSORTS DU CAPITALISME VIRAL
Avant l'invasion du coronavirus, nous avions oublié les virus biologiques, obnubilés que nous étions par leurs cousins informatiques. Dans le monde numérique, les virus menacent la stabilité des réseaux. Pour prévenir leur effondrement, il existe quantités de vaccins qu'on peut se procurer sur le marché : des anti-virus. Ces défenses individuelles seraient inopérantes en l'absence d'opérateurs qui détectent les attaques virales. Des opérateurs de « santé publique » exerçant à notre insu une surveillance sur chacun d'entre nous. Comme le rappelle Yves Citton, le virus numérique est alternativement un ennemi et un allié, ou une manne potentielle. Chaque youtubeur rêve que sa vidéo devienne virale. Quand un tweet le devient, le réseau s'emballe. Il peut rapporter beaucoup de renommée, et aussi beaucoup d'argent! Le gisement de valeur du capitalisme numérique est le stock d'information qu'il détient sur chacun de nous. Nous-mêmes alimentons ce stock par les traces que nous laissons à chacune de nos communications, de nos déplacements, de nos achats. Cette information se multiplie à la façon du virus pour devenir matière à valorisation. Son coût additionnel d'acquisition (le coût « marginal ») est négligeable une fois les investissements de départ effectués. C'est ainsi que se construisent les fortunes des GAFAM et celle des autres opérateurs du capitalisme viral. L'expansion du capitalisme viral dope la transition énergétique. Il substitut du transport d'information à du transport de personnes ou de marchandises. Son carburant est l'électron. Dans la mobilité terrestre, il ne s'intéresse pas au moteur à combustion mais aux systèmes de condu ite automatique et à la mobilité électrique. Dans la mobilité aérienne, ce sont les drones, les taxis aériens, les avions électriques de demain qui attirent ses investissements. Dans la transition énergétique, il est motivé par les nouvelles sources d'énergie renouvelables, la gestion intelligente des réseaux, les méthodes d'intelligence artificielle, la ville connectée. Le capitalisme viral a déjà gagné la bataille contre le capitalisme thermoindustriel. Son emprise croissante va accélérer la baisse des émissions de CO2. Ses promoteurs promettent en prime une nouvelle croissance portée par la « quatrième révolution industrielle ». Le père de la théorie de la croissance, Robert Solow, s'étonnait déjà de voir des ordinateurs partout sauf dans les statistiques de productivité. Ses successeurs ont confirmé le diagnostic : 1 Yves Citton, Panique virale : comment ne pas rater la catastrophe? AOC-Media, 7 avril 2020. le numérique bouscule les conditions de la concurrence, détruit les formes traditionnelles du salariat et casse les prix. De la croissance en plus? On ne la Covid-19 | Regards croisés sur la crise voit nulle-part au plan macroéconomique. Le capitalisme viral nous dirige en revanche vers des sociétés de contrôle. Pour lutter contre la pandémie, ses ressources sont mobilisées pour accélérer la recherche médicale sur des moyens thérapeutiques mobilisables à grande échelle. C'est un progrès considérable. Il permet aussi de tracer les personnes en contact avec le virus. Le risque que cela représente pour les libertés individuelles sitôt que ces informations sont centralisées au sein de l'appareil d'État n'échappe à personne. Cette logique de contrôle s'applique également à la transition bas carbone. Le projet écologique du capitalisme viral, c'est de prendre le contrôle des cycles naturels. Cette logique « capitalocène » le conduit à parier sur des méthodes de géo-ingénierie pour renforcer la résilience des sociétés post Covid-19. Souvent liées à des visions transhumanistes, ces logiques tournent le dos au nécessaire investissement dans la diversité des écosystèmes et la restauration des puits de carbone, la deuxième jambe de la transition bas carbone. Les méthodes du contrôle viral pour assurer la résilience face au réchauffement font peur. Elles déclenchent des réactions qui pourraient conduire à des formes mieux régulées de capitalisme. Entre les déclinaisons inquiétantes du capitalisme viral chinois ou américain, c'est une peu la force d'un modèle européen qui pourrait alors l'emporter.
VALEURS PRIVÉES ET PATRIMOINE COMMUN
Lorsqu'on l'interroge sur le capitalisme post Covid-19, Mark Carney, le banquier central qui vit avant les autres le risque climatique, se réfère au philosophe Michael Sander pour prôner un capitalisme qui « met les valeurs au-dessus 85 des évaluations ». Il entend par là, passer d'une société de marché où « les prix de chaque chose deviennent la valeur de chaque chose » à un système inversé où « les valeurs collectives forgent la valeur privée2 ». Cette option du capitalisme régulé par l'intérêt général implique un profond rééquilibrage entre État et marchés, entre patrimoine commun et valeurs financières. Sous le coup de l'urgence, un tel rééquilibrage a été imposé par la Covid-19, les États prenant de facto le contrôle des économies pour les mettre à l'arrêt. 3 Guillaume Bazot, Les inégalités s'accroissent-elles vraiment? La vie des Idées
,
Collège
de France, 2 juin 2020. l'engrenage de la hausse du prix des actifs et de celle de l'endettement est probablement l'une des tâches les plus complexes pour restaurer le primat de l'intérêt général sur les intérêts privés.
LE CAS DU CLIMAT ET DE LA BIODIVERSITÉ
Pour viser la neutralité carbone, qui seule permettra de stabiliser le réchauffement global, il convient de subordonner les évaluations privées à la valeur collectivement accordée au climat. La bourse n'est d'aucune utilité en la matière. Les institutions financières entretiennent la confusion avec leur communication sur les produits verts. Le climat et la biodiversité n'ont pas vocation à devenir une valeur d'actif négociable sur les marchés. Ce ne sont pas des biens reproductibles. Pas plus que pour la Joconde ou Notre-Dame de Paris, les marchés n'ont pas la moindre légitimité à leur donner un prix. Introduire dans le système marchand une valeur environnementale, c'est imposer un nouveau mode de valorisation qui incorpore le coût des dommages environnementaux. Pour paraphraser le regretté Jacques Weber, « la nature n'a pas de prix, mais sa destruction a un coût ». C'est ce coût qu'il convient d'intégrer dans les valeurs échangées. Sous l'angle énergétique, c'est le rôle de la tarification carbone, qui permet d'accélérer la sortie des énergies fossiles. Techniquement, elle ne pose guère de problèmes du fait de l'équivalent CO2 qui sert d'étalon unique. La difficulté est de gérer ses effets distributifs. La tarification par la taxe est mieux adaptée à l'échelle nationale, car il existe des ministères de finances qui sont des orfèvres pour lever des impôts (mais pas pour les redistribuer). La tarification par systèmes de quotas exige une rég plus complexe. Le système européen d'échange de quotas de CO2 en est le prototype aujourd'hui le plus achevé dans le monde. C'est un outil très puissant qui s'apparente à un système de rationnement avec flexibilité. Pour la partie « carbone vivant » concernant le captage du CO2 par les puits 86 de carbone, l'affaire est plus corsée. Le bouclage du cycle du carbone repose sur la diversité des écosystèmes marins et terrestres. Mais ces écosystèmes produisent beaucoup d'autres services essentiels aux activités humaines. L'étalon CO2 n'a plus qu'une utilité limitée car il ne concerne qu'une partie de ces services écosystémiques. Des progrès sont faits dans l'évaluation de ces services écosystémiques. Ils permettront sans doute d'élargir les solutions « basées sur la nature » dont l'utilité ne fait aucun doute. La difficulté est que chaque écosystème est particulier et que sa valeur dépend d'une multiplicité d'interactions entre êtres vivants. On ne sait guère répliquer à grande échelle les pilotes fonctionnant localement. Le changement d'échelle est pourtant un enjeu majeur : pour viser la neutralité carbone, la transformation agroécologique et aussi déterminante que la transition énergétique. Les difficultés techniques de la tarification environnementale masquent ici un problème plus fondamental. Ce qui est en jeu est notre rapport à la nature et aux multiples êtres vivants la composant : ceux que nous voyons et qui peuvent nous ressembler ; ceux que nous transformons en aliments pour notre subsistance ; ceux invisibles, comme les virus avec lesquels nous cohabitons.
Covid-19 | Regards croisés sur la crise Verdir la relance économique : une approche réseau pour évaluer les potentielles émissions industrielles évitées
Côme Billard Doctorant LEDA Anna Creti Professeur des universités LEDA
Alors que la plupart des gouvernements européens ont mis en oeuvre des plans de sauvetage (France, Allemagne, Italie, Espagne et Royaume-Uni), la Commission européenne a annoncé un budget supplémentaire de 750 Md pour soutenir les économies les plus touchées, soit un budget global de 1 100 Md pour 2021-2027. Si ce montant est nécessaire à la reprise des économies de l'UE, un plan de relance efficace à long terme doit cibler les secteurs capables de créer rapidement des emplois et de stimuler la production dans d'autres secteurs, alimentant ainsi la croissance du PIB (Allan et al., 2020)1. Entre autres, les secteurs ciblés doivent afficher des multiplicateurs économiques élevés à court et long termes, autrement dit un haut rendement par dépensé. Ces multiplicateurs tiennent compte Atteindre la neutralité carbone d'ici 2050 est devenu une priorité majeure de l'Union Européenne. Suite à la crise de la Covid-19, le succès de cet objectif dépend en grande partie de la conception des plans de relance économique. Dans une étude menée récemment, nous identifions les secteurs industriels qui, si les gouvernements ont l'ambition de découpler croissance économique et émissions de gaz à effet de serre, ne doivent pas bénéficier des stimuli de la relance. Nous procurons une quantification de ces effets en termes d'émissions évitées. des effets des dépenses (dépenses publiques, réductions d'impôts) dans le secteur spécifique (impact sur les revenus, la production), mais aussi des cycles de dépenses ultérieurs générés par les dépenses initiales dans d'autres activités de l'économie. Pendant et après la crise financière de 2008, les politiques expansionnistes axées sur les investissements à travers le prisme des multiplicateurs économiques ont été plus efficaces pour relancer l'activité économique que celles fondées sur l'austérité. Douze ans plus tard, la crise de la Covid-19 pousse à nouveau les décideurs à déterminer les secteurs clés sur lesquels concentrer les investissements, prenant en compte l'évolution des technologies, la nécessité de stimuler la croissance tout en garantissant la création d'emplois pour les années à venir. D'un point de vue de la politique climatique, la seule prise en compte des multiplicateurs économiques ne garantit évidemment pas une transition vers une société carbone-neutre d'ici 2050. En effet, les plans de relance peuvent être « bruns » ou « verts » selon leur capacité à découpler les émissions de gaz à effets de serre (GES) de l'activité économique. Les secteurs présentant des multiplicateurs élevés peuvent être ceux qui agissent comme de grands émetteurs de GES, ce qui suggère une tension entre la croissance économique à court terme et les objectifs climatiques à long terme. Pour découpler croissance du PIB et émissions de GES, les gouvernements de l'U.E. peuvent bien entendu chercher à comprendre quels secteurs industriels sont à l'origine des émissions. Mais certaines industries à faible intensité d'émissions peuvent tout autant contribuer à réduire les émissions du système en limitant la fourniture d'intrants aux secteurs poll ants en aval. Les gouvernements doivent être conscients de ces dynamiques intra-sectorielles. Notre travail a consisté à apporter des éclairages sur ces questions en proposant de mieux se saisir des interdépendances économiques intra-sectorielles et des dynamiques d'émissions qui en résultent. Plus précisément, nous avons considéré le tissu industriel comme un système d'activités interagissant par la dynamique de l'offre et de la demande d'input / output. La production d'une industrie peut être utilisée directement comme intrants fournis à d'autres secteurs (e.g. la production du secteur minier). Une baisse de sa production diminue la production de cette activité et a un impact sur les secteurs en aval. production). Si certaines études ont exploré les phénomènes de cascades économiques (e.g. information sur les marchés financiers, diffusion des risques dans le système bancaire), le thème des émissions industrielles n'a Covid-19 | Regards croisés sur la crise Côme Billard Anna Creti jamais été étudié dans une perspective systémique. Ainsi, nous proposons une nouvelle analyse du processus par lequel la contraction de la production d'un secteur spécifique réduirait l'utilisation d'intrants dans d'autres secteurs, entraînant une baisse des émissions associées. Dans le contexte des plans de relance Covid-19, cette approche est particulièrement pertinente car les chaînes d'approvisionnement ont été sévèrement touchées par les restrictions gouvernementales. Alors que les gouvernements mettront en oeuvre des mesures de stimulation économique pour garantir des niveaux d'approvisionnement élevés et relancer l'activité, notre recherche identifie les secteurs qui ne devraient pas bénéficier des plans de relance - sans contrepartie environnementale - et quantifie les impacts d'une telle décision délibérée sur les émissions (émissions évitées). Ces nouveaux résultats permettent aux décideurs de tenir compte des émissions « évitées » lors de la conception de mesures de relance. Nous utilisons pour cela les données disponibles pour cinq pays européens touchés par la pandémie (France, Allemagne, Italie, Pologne et Espagne). Premièrement, nous faisons appel au concept d'entrées-sorties pour dériver des matrices économiques nationales de multiplicateurs d'émissions, incluant l'ensemble des activités des secteurs productifs industriels. Ces multiplicateurs saisissent la quantité d'émissions qui est réduite dans un secteur en raison d'une diminution unitaire des intrants primaires utilisés par un autre, en considérant à la fois les effets directs et indirects. Ce faisant, nous identifions industries les plus susceptibles de déclencher des cascades de réduction des émissions et celles qui sont les plus exposées à une augmentation des émissions internes de GES par le biais d'un autre secteur. La nouveauté de notre analyse consiste à maintenir une perspective systémique de l'économie 88 et à étudier les canaux de transmission des réductions d'émissions (cascades d'émissions). Au-delà de l'identification des secteurs agissant comme leader des émissions industrielles, notre étude procure une estimation quantitative de ces interactions intersectorielles. Cette quantification permet une évaluation potentielle des émissions évitées suivant la mise en place de plans de relance bruns ou verts. Quel que soit le système économique, nous soulignons notamment comment l'exploitation minière et les produits pétroliers raffinés ainsi que l'électricité et le gaz figurent parmi les secteurs qui ont les plus grands multiplicateurs d'émissions. Une baisse de leur activité entraîne la plus forte réduction des émissions dans le système industriel. Toutes choses égales par ailleurs, les plans de relance verts devraient garantir que leur activité ne repartira pas sans engager de profondes mutations. À l'inverse, les industries du pétrole raffiné, des métaux de base, l'électricité et du gaz sont les plus exposées à une dynamique de contraction des émissions. Toutes ces activités ont des impacts divers en termes de réduction d'émissions de GES, ce qui suggère différentes stratégies de plans de relance nationales. Par la suite, nous concentrons notre étude sur l'industrie minière afin d'étudier les canaux les plus pertinents des cascades sectorielles qui peuvent être évitées. Ce faisant, nous sommes en mesure d'évaluer le rôle des secteurs à forte intensité énergétique tels que les produits pétroliers raffinés, les métaux de base, l'électricité et le gaz dans le processus en cascade. Bien que les pays présentent des dynamiques de cascades différentes selon la particularité de leur structure industrielle, certaines tendances se dégagent. D'une part, les métaux de base, la fabrication de produits pétroliers raffinés ainsi que l'électricité et le gaz sont les activités les plus exposées à une baisse des émissions par une contraction de la production dans le secteur minier. D'autre part, les produits chimiques et pharmaceutiques ainsi que la fabrication d'autres produits minéraux non-métalliques sont très présents dans le Covid-19 | Regards croisés sur la crise Côme Billard Anna Creti troisième cercle du processus de cascades. Ces résultats suggèrent que l'abandon de l'exploitation minière aurait des répercussions non seulement sur les émissions, mais qu'il aurait également des effets économiques sur d'autres secteurs en aval, complétant a la littérature florissante sur les actifs à risque en raison d'une transition vers une économie décarbonnée (Creti et de Perthuis, 20192). Dans les mois à venir, les gouvernements de l'UE introduiront les plans de relance économique Covid-19. Ces plans détermineront la prospérité future de l'UE et notre capacité à atteindre les objectifs environnementaux récemment fixés dans le Green Deal. Les industries à forte intensité d'émissions auront une contribution particulière à apporter mais les aides devront être conditionnées à une limitation des émissions de GES à l'avenir. Le passage des technologies à forte intensité carbone à celles à faible intensité carbone est devenu un enjeu majeur au cours des dernières années. 2 Creti, A., de Perthuis, C. (2019). Stranded Assets and the Low-carbon Revolution: Myth or Reality? IAEE Energy Forum / Fourth Quarter. Covid-19 | Regards croisés sur la crise Le calcul, l'imprévu
Ivar
Ekeland
Professeur émérite C
EREMADE
La Covid-19 est un événement imprévu. Je prends le mot en un sens précis, celui d'un événement dont on n'avait pas envisagé la possibilité. On sait que le calcul des probabilités procède en faisant une liste exhaustive des événements possibles, et en attachant à chacun d'eux une probabilité de réalisation. Par définition, un événement imprévu ne figurait pas dans la liste, et échappe donc au calcul des probabilités. Il y a les choses qu'on sait qu'on ne sait pas, et les choses qu'on ne sait pas qu'on ne sait pas. Les unes relèvent du calcul des probabilités, et des méthodes modernes de gestion, les autres relèvent de la prudence. Le rôle de l'État est, entre autres, d'exercer cette prudence, même s'il l'a un peu oublié. Encore faut-il lui en donner les moyens, et cet article se termine par une proposition très concrète, une taxe très faible sur tous les paiements scripturaires. Dans un de mes premiers livres, « Au hasard », j'avais expliqué la différence en prenant l'exemple d'une ancienne saga. Les rois de Norvège et de Suède tiraient aux dés la possession d'une bourgade. Au premier tour chacun d'eux fit le maximum, douze, au second tour le suédois tira de nouveau un douze et crut avoir partie gagnée, mais quand ce fut le tour du norvégien le dé se brisa et donna la victoire au norvégien avec treize. Aucun traité de calcul des probabilités n'envisage que le dé puisse se casser ; on vous explique que la probabilité d'obtenir douze est 1/36, mais pas que la somme des chiffres que portent les côtés opposés est sept, et que si on sort de l'abstraction mathématique on peut obtenir un treize, voire même un quatorze. Tout cela est bien embêtant, parce que toute la méthode « scientifique » de prise de décision dans l'incertitude est basée sur le calcul des probabilités. C'est ainsi que l'on évalue le prix des actifs financiers, mais c'est ainsi aussi que l'on fait du calcul économique. Dans le domaine de la santé, par exemple, on pourra confronter le prix d'un investissement, par exemple l'amélioration d'une route ou l'achat d'un nouvel équipement, au nombre probable de vies qu'il permettra de sauver. Plus généralement, on dimensionnera les investissements futurs sur ce qui s'est produit dans le passé, en considérant implicitement que ce qui ne s'est jamais passé ne se passera jamais. Dans cette logique, s'il n'y a jamais eu plus de mille lits occupés en réanimation dans une région donnée, il n'est guère nécessaire d'en avoir davantage de disponibles. Si l'expérience nous a prouvé que quand c'était plein chez nous, il restait de la place chez le voisin, on pourra même réduire, et calculer le niveau optimal de lits de réanimation à conserver. Comme le dit notre Président, tout est une question d'organisation! Cette idée que le futur sera semblable au passé est loin d'être confinée au secteur de la santé. Bien au contraire, elle est omniprésente dans notre société, où il n'y a pas si longtemps on proclamait « la fin de l'histoire ». Chaque fois qu'il y a une décision à prendre, qu'il s'agisse de gérer les entreprises ou de gouverner les nations, l'habitude s'est instaurée de construire des modèles probabilistes du futur et de les calibrer sur le passé. C'est le règne du calcul économique, où l'on compare les profits et les coûts en les pondérant par leurs probabilités respectives. L'imprévu, c'est le rappel à la réalité. La Covid-19 montre à l'évidence que l'histoire n'est pas finie, et que l'avenir est plus riche que le passé. La première conclusion est qu'il est imprudent de dimensionner le système de santé sur le train-train des années écoulées : il faut le surdimensionner pour affronter une pandémie. Cela ressemble au problème d'EDF (du temps où elle avait le monopole de la distribution d'électricité) : ce n'est pas la demande moyenne qui compte, c'est la demande aux heures de pointe! C'est pour satisfaire celle-ci qu'il faut construire les centrales, quitte à ce que la plupart de celles-ci soient Covid-19 | Regards croisés sur la crise Ivar Ekeland inutilisées une grande partie du temps. Ce surdimensionnement implique des coûts supplémentaires, qui doivent être pris en charge en partie par l'impôt et en partie par le tarif. De même, il est prudent d'avoir un système de santé surdimensionné par rapport aux besoins courants. La deuxième conclusion, c'est que le rôle de l'État n'est pas seulement d'économiser les deniers publics, mais de parer à l'imprévu, ce que nul autre que lui ne peut faire. Pour cela il n'y a pas de recette, ni de calculs, il n'y a que le sens des responsabilités et un processus politique. Il faut surdimensionner le système de santé pour faire front à des imprévus : c'est le sens des responsabilités. De combien? C'est là qu'intervient le processus politique : il faut faire émerger de la société un consensus, d'autant plus que ce n'est pas le seul secteur qui doive être surdimensionné, et qu'il va falloir faire des choix. On pense à la défense nationale, par exemple, avec la force de frappe nucléaire. D'autres imprévus que la Covid-19 nous guettent. Dès 1987, la revue Nature publiait un article devenu célèbre, « Unpleasant surprises in the greenhouse », où l'auteur, Walter Broecker, évoquait pour la première fois les effets de seuil que nous réserve le réchauffement climatique. Il n'y a aucune raison, disaitil, que le changement soit graduel, ce que l'on connaît des climats passés indique même le contraire, et il faut donc s'attendre à des basculements soudains et irréversibles. De quelle manière? Il en décrivait une, l'interruption du Gulf Stream, qui changerait profondément le climat de l'Europe de l'Ouest, tout en disant qu'il y en avait certainement bien d'autres. Sa conclusion était que « l'humanité joue à la roulette russe avec le climat, et personne ne sait ce qu'il y a dans le barillet ». Les rapports du GIEC (Groupe International d'Experts sur le Climat) 91 mentionnent bien entendu que ces seuils existent (on en a trouvé d'autres depuis) mais n'en tiennent pas compte dans leurs projections, justement parce qu'ils sont imprévisibles, et donc ne relèvent pas du calcul des probabilités. La conséquence, c'est que même si on respectait les objectifs de l'accord de Paris, et que l'on limitait la hausse moyenne des températures à 2°C en 2100 (on en est loin), on ne serait pas prêt pour l'imprévu : on n'aura pas surdimensionné pour amortir le choc si un seuil est franchi. Toutes les prévisions sont faites sous l'hypothèse que ce qui ne s'est jamais passé ne se passera pas, que le Gulf Stream ne s'arrêtera pas, et que la fonte du permafrost dans l'Arctique ne libèrera pas des quantités énormes de méthane. En ce qui concerne notre propre pays, quand on prend conscience du rôle crucial de l'État pour affronter l'imprévu, on se dit qu'il faut aussi qu'il puisse mobiliser des moyens d'action à la mesure des enjeux. Il est clair qu'en temps d'imprévu, les investissements privés s'assèchent, justement parce qu'il n'y a plus de calcul des probabilités qui tienne et qu'ils ne peuvent pas mesurer le risque, et que seul l'État est capable d'investir. Avec quel argent? Avec de la création monétaire, bien entendu, ce fameux « argent magique » qui soi-disant n'existait pas et que l'on a vu couler à flots des deux côtés de l'Atlantique. Mais une grande partie de l'argent magique va se réfugier bien loin de l'économie réelle, vers les marchés financiers. C'est que l'économie réelle a quitté le domaine du risque probabiliste, donc maîtrisé, pour rentrer dans le domaine de l'imprévu, et que les investisseurs et les entreprises veulent rester en territoire connu. Les uns achètent des obligations d'état, considérées comme sûres, les autres rachètent leurs propres actions pour faire monter les cours. Il est difficile de se convaincre que cette disparité entre des marchés financiers qui prospèrent et une économie qui s'effondre soit bénéfique pour la société, ou même puisse se maintenir sur le long terme. C'est pourquoi, avec Jean-Charles Rochet, nous préconisons de
mettre en place une taxe de Covid-19 | Regards croisés sur la crise
I
var
Ekeland faible niveau, de l'ordre de 0,3 %, sur tous les paiements scripturaux, c'est-àdire sur tous les flux qui rentrent ou qui sortent des comptes bancaires, de particuliers ou d'entreprises. Pour comprendre l'effet d'une telle taxe, voyons ce qui se passerait pour un ménage vivant de ses revenus. Chaque mois le revenu arrive sur le compte en banque, et chaque mois il en ressort, le mouvement sur le compte est donc de deux fois le revenu, et la taxe se monterait donc à 0,6 %. La catastrophe sanitaire actuelle : une crise anthropologique?
* Jean-François Chanlat Professeur émérite DRM
Depuis plusieurs mois, nous sommes en pleine pandémie de la Covid-19. Cette catastrophe qui porte bien son nom puisque c'est bel et bien « un évènement brutal qui bouleverse le cours des choses en provoquant souvent la mort ou la destruction », nous révèle à sa manière ce qu'a produit, anthropologiquement, la mondialisation au cours des dernières décennies. C'est donc, anthropologiquement parlant, une crise anthropologique, et pour reprendre Marcel Mauss1, un fait social total. 93 Depuis plusieurs mois, nous sommes en pleine pandémie de la Covid-19. Cette catastrophe qui porte bien son nom nous révèle à sa manière ce qu'a produit, anthropologiquement, la mondialisation au cours des dernières décennies. C'est une crise anthropologique et pour reprendre Marcel Mauss, un fait social total. Sous cette appellation, Mauss désigne tous les éléments institutionnels et sociodémographiques qui sont impliqués dans un tel fait, notamment les regroupements saisonniers (fêtes, foires, assemblées, cérémonies religieuses, jeux, etc.). C'est au cours de tels rassemblements où l'on observe de nombreux échanges que peuvent se transmettre aussi les virus. L'objet de cette brève réflexion est de montrer comment la crise de la Covid-19 est bel et bien un fait social total qui concerne autant la société que chaque individu à trois niveaux : la représentation collective que l'on s'en fait, l'ensemble des institutions qui sont concernées et l'enjeu qui en découle : leur propre existence et survie à terme. Pour Marcel Mauss, le fait social total est un fait qui met en branle dans certains cas la totalité de la société et de ses institutions. Sous cette appellation, Mauss désigne tous les éléments institutionnels et socio-démographiques qui sont impliqués, notamment les regroupements saisonniers (fêtes, foires, assemblées, cérémonies religieuses, jeux, etc.). C'est au cours de tels rassemblements où l'on observe de nombreux échanges que peuvent se transmettre aussi les virus, et que les épidémies se diffusent. C'est ce qu'ont rappelé des épidémiologistes à propos de l'émergence de la Covid-19 en Chine, les fêtes annuelles et la grande mobilité démographique qu'elles ont entrainées, ayant été clairement les catalyseurs de la pandémie dans ce pays. Autrement dit, un fait social total est un phénomène qui engage toute une société et chaque individu, à trois niveaux : la représentation qu'on s'en fait ; l'ensemble des sphères concernées ; et le fait que l'existence et la survie de la société est en jeu.
LA REPRÉSENTATION COLLECTIVE DE LA PANDÉMIE
La représentation de la pandémie de la Covid-19 renvoie à quelque chose à la fois de global, 214 pays et territoires sont touchés dans le monde, de contagieux, on estime qu'un individu en contamine au moins trois, contrairement à la grippe annuelle qui est de l'ordre de 1.28, et de plus dangereux que d'autres virus connus, un nombre important de gens pouvant en mourir. Nous avons en effet dépassé le million de morts dans le monde et les trente-trois mille morts en France au 19 octobre 2020 selon le site de l'Université Johns Hopkins. La déclaration de l'OMS faite fin janvier a conduit à la mise en place dans la plupart des pays du monde de dispositifs pour en limiter la propagation. Dés s, nos interactions sociales sont soumises à ces impératifs sanitaires qui fixent le cadre des conduites, tant au niveau des interactions quotidiennes permises (courses, travail, transport, etc.) qu'au niveau des interactions interdites (rassemblements, cérémonies, voyages, fêtes, spectacles, etc.). Nous sommes dans une situation sociale que l'on peut qualifier à l'instar de Mauss d'anthropologique puisqu'elle concerne simultanément le corps, l'esprit et la société.
LA MISE EN MOUVEMENT DE TOUTES LES INSTITUTIONS
Le fait social total touche à la fois les institutions économiques, politiques, culturelles, religieuses, la morphologie sociale, l'esthétique et l'éthique. Il peut concerner un fait local, régional ou international.
| 522
|
c106963d62335f0b271c529ab8d36925_1
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,023
|
Compositions à base de paysages et de portraits sonores dans la musique de Hildegard Westerkamp. Captures : Figures, théories et pratiques de l'imaginaire, A paraître. ⟨hal-04288196⟩
|
None
|
French
|
Spoken
| 6,365
| 10,146
|
Compositions à base de paysages et de portraits sonores dans la musique de Hildegard Westerkamp
HAL is a multi-disciplinary open access archive for the deposit and dissemination scientific research documents, whether they are or not. documents may come from teaching and research institutions in France or abroad, or public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés. Compositions à base de paysages et de portraits sonores dans la musique de Hildegard Westerkamp Résumé français. Pionnière de l’écologie acoustique, la compositrice Hildegard Westerkamp montre que le son est ce qui nous relie au monde. Plusieurs de ses pièces travaillent avec des lieux ou avec des personnes, qu’elle nous rend proches à travers l’expérience sonore. Cet article s’intéressera à la pertinence de l’expression « compositions à base de paysages sonores » (soundscape compositions) qu’elle utilise pour la plupart de ses compositions et se demandera si l’on pourrait également parler de « compositions à base de portraits sonores », avant de mettre l’accent sur l’expérience et l’écoute. English abstract. A pioneer of acoustic ecology, composer Hildegard Westerkamp shows that sound is what connects us to the world. Several of her pieces work with places or people, which she brings closer to us through the experience of sound. This article will look at the relevance of the expression “soundscape compositions”, which she uses for most of her compositions, and ask whether we could also speak of “sound portraits compositions”, before focusing on experience and listening. Mots-clefs. Hildegard Westerkamp, écologie sonore, compositions à base de paysages sonores (soundscape compositions), portrait sonore, écoute
INTRODUCTION
Pionnière de l’écologie acoustique, la compositrice (et soundmaker) Hildegard Westerkamp (exemple 1) est connue pour ses compositions musicales – en grande partie des « compositions à base de paysages sonores » (soundscape compositions) – intégrant des sons environnementaux, mais aussi pour les considérations d’ordre écologique qu’elle y attache (cf. Westerkamp, 1988a, 2002a, 2007, 2011). Dans la conception traditionnelle de la musique, le son constitue un moyen pour élaborer des représentations ou encore, pour générer des émotions. Dans ses compositions comme dans ses écrits, Westerkamp développe l’idée que la musique peut faire naître une conscience dans laquelle le son est appréhendé comme une dimension décisive du monde. Selon cette conception, l’art des sons met en jeu une dialectique nous permettant de construire une subjectivité soucieuse de ce dernier, le son et la musique rendant compte de expérience du et dans le monde. C’est ainsi qu’elle nous dit : « Je ne suis plus intéressée par faire de la musique dans le sens conventionnel ; je m’intéresse à soulever des questionnements culturels et sociaux à travers l’idiome musical. C’est pourquoi j’utilise comme instruments le son et le langage environnemental. Je cherche à trouver les “voix” d’un lieu ou d’une situation, voix qui peuvent parler puissamment d’un lieu [place] ou d’une situation ainsi que de notre expérience dans et avec. Je considère que je suis une écologiste du son » (H. Westerkamp, 1985 ; je traduis).
Exemple 1. Hildegard Westerkamp. Source: Westerkamp, s.d. Publié avec l’aimable autorisation de Hildegard Westerkamp. Cet article traitera d’abord de l’importance du lieu dans l’œuvre de Westerkamp. Puis, il analysera la notion de composition à base de paysages sonores, avant de se centrer sur la thématique du colloque, « portraits sonores de pays ». Enfin, il sera question de l’importance de l’écoute dans le travail de Westerkamp. Le propos général est une brève introduction à l’œuvre de cette merveilleuse musicienne1. Pour commencer, nous proposons au lecteur qui n’en n’est pas familier d’écouter une de ses dernières pièces, en en lisant la notice : Beads of Time Sounding (2016, pour flûtes à bec et audio deux pistes) (exemple 2).
Exemple 2.
Hildegard
Westerkamp, Beads of Time Sounding : notice et extrait de concert: https://www.hildegardwesterkamp.ca/sound/comp/1/beads. L’EXPÉRIENCE DES LIEUX
L’écologiste du son qu’est Westerkamp rend compte, à travers sa musique, de l’expérience des lieux. Ainsi, dans la Fantasy for Horns II (1979), la partie audio contient des sons de sirènes de bateau, de sifflets de train, de cornes de brume – sons dont le nom anglais est un composé du mot horn (cor) : boathorn, trainhorn, foghorn – ainsi que d’autres sons puisés dans les enregistrements pour le World Soundscape Project, qui dialoguent avec un cor en direct : « Les sons de cor [...] dominent toutes les ambiances, même celles des grandes villes. Ils constituent des empreintes sonores qui donnent à un lieu son caractère, et qui nous donnent, souvent de manière subliminale, un “sens du lieu” », nous dit-elle (Westerkamp, s.d. ; je traduis). Une autre pièce, Talking Rain (1997) utilise également des sons enregistrés pour le World Soundscape Project dans les années 1970 et dans les années 1990, à côté d’autres sons captés par la compositrice pour les besoins de la pièce : des sons de pluie qui permettent à l’oreille de voyager « à l’intérieur de ce lieu de nourriture comme à l’extérieur, au sein du langage liquide des animaux, des forêts et des habitations humaines, qui sont tous nourris par la pluie » (ibid.). Et l’on pourrait citer de nombreuses autres pièces de Westerkamp qui traitent de l’expérience des lieux. L’une des compositions les plus connues qui met en œuvre cette expérience des lieux est Beneath the forest floor (sous le sol de la forêt) (1992, pour audio deux pistes : Westerkamp, 2010). La notice de la compositrice nous indique avec clarté son propos : « Beneath the Forest Floor est composé de sons enregistrés dans des forêts anciennes de la côte-ouest de la Colombie-Britannique. La pièce nous fait traverser la forêt visible pour nous amener jusqu’à son monde d’ombres, à son esprit ; vers ce qui affecte notre corps, notre cœur et notre cerveau lorsque nous faisons l’expérience de la forêt. La plupart des sons de cette composition ont été enregistrés dans un lieu spécifique, la vallée de la Carmanah sur l’Île de Vancouver. Cette vieille forêt humide abrite certaines des plus grandes épinettes Sitka connues au monde ainsi que des cèdres âgés de plus de mille ans. Son calme est énorme, il est ponctué seulement occasionnellement par les sons de petits oiseaux chanteurs, de corbeaux et de geais, d’écureuils, de mouches et de moustiques. Bien que le ruisseau Carmanah constitue toujours une présence acoustique, il ne trouble jamais la paix. Son son entre et sort du silence de la forêt au fur et à mesure que la piste serpente à travers les clairières proches du ruisseau. Un séjour de quelques jours dans la vallée de la Carmanah [cf. exemple 3] crée une profonde paix intérieure – transmise, sans aucun doute, par les arbres qui se dressent toujours au même endroit depuis des centaines d’années. Beneath The Forest Floor tente de créer un espace dans le temps qui nous permette de ressentir cette paix. Mieux encore, la pièce vise à encourager les auditeurs à visiter un endroit tel que la vallée de la Carmanah, dont la moitié a déjà été détruite par la coupe à blanc. En plus de nous permettre de ressentir l’impressionnant silence, une visite donnera aussi un sens très réel de ce qui est perdu lorsque ces forêts disparaissent : non seulement les arbres, mais aussi cette paix intérieure qu’ils nous communiquent – un sentiment d’équilibre et de concentration, d’énergie nouvelle et de vie. La forêt intérieure, la forêt en nous » (Westerkamp, s.d., je traduis).
Exemple 3. La forêt dans la vallée de la Carmanah. Photo Hildegard Westerkamp, juillet 1991. Source: Westerkamp, s.d. Publié avec l’aimable autorisation de Hildegard Westerkamp. 1 Certaines parties de cet
article
sont
développées in Makis Solomos (2023). La pièce démarre par un son répété plusieurs fois, qu’on pourrait nommer, si l’on se basait sur la terminologie musicale traditionnelle, « ostinato » ou, mieux encore, « basse continue ». Il s’agit en fait d’un croassement de corbeau considérablement ralenti (environ 9,5 fois), que l’on entend pour la première fois dans sa version non transformée à 26,5’’. Des paysages sonores (sons de forêt, geais de Steller, vent, autres oiseaux, cours d’eau...), non transformés, font irruption par montage de manière ponctuelle en contrastant fortement avec une trame continue de sons quasi harmoniques. À 4’39’’, on entre dans la seconde partie de la pièce. Préparée par la juxtaposition serrée de montages de paysages sonores dans la première partie, celle-ci constitue une vraie tranche de réel, donnant l’ambiance d’une forêt sous un vent très fort. La troisième partie (7’30’’-8’43’’) constitue une transition ou, si l’on préfère, un moment d’accalmie. La quatrième partie, qui démarre à 8’43’’, reprend le principe de la seconde : une immersion dans le paysage sonore de la forêt. Cependant, les conditions climatiques et les sonorités sont différentes : nous entendons d’abord, brièvement, un paysage sonore avec du vent ; puis, plus longuement, des enregistrements de paysages avec cours d’eau, qui élaborent avec beaucoup de musicalité les rythmes variés de l’eau, à côté de quelques sons nouveaux. La dernière partie, qui débute à 13’10’’, nous entraîne vers des atmosphères méditatives. Elle est dominée par une nappe harmonique, à laquelle se rajoute une autre nappe de sons-notes tout aussi harmoniques. Dans une œuvre électroacoustique ou acousmatique, l’auditeur peut naviguer entre deux niveaux, comme il en va dans la musique instrumentale. Le premier relève de ce que l’on nomme parfois le « proprement musical » : eu égard à la musique électroacoustique, il s’agit de la morphologie sonore et des articulations formelles entre les sons. Le second renvoie à la signification. Cette dernière pourra être précisée en détail par le compositeur, mais restera toujours liée à une intention : l’auditeur, lui, pourra faire proliférer d’autres significations. Il en va tout autrement d’une composition à base de paysages sonores, où une partie des matériaux sonores renvoient à un lieu : l’auditeur ne séparera pas morphologie sonore et signification. C’est ainsi que la première partie de Beneath the Forest Floor nous donne un aperçu général de la forêt, de sa complexité et de sa richesse ainsi que de son monde le plus intérieur, matérialisé sans doute par les trames de sons quasi harmoniques. La seconde partie nous plonge dans un moment fort de la forêt, où elle dominée par un vent très fort. La troisième, moment de transition, du fait de ses silences et de ses sons transformés dont on ne devine pas l’origine, est empreinte de mystère. La quatrième offre un autre moment fort de la forêt, avec ses divers types d’eau. Enfin, la dernière partie, avec sa prédominance de nappes quasi harmoniques, nous rive définitivement du côté de l’esprit de la forêt et de son calme qu’évoque Westerkamp dans sa notice. COMPOSITIONS À BASE DE PAYSAGES SONORES
Inscrite dans la tradition de l’« écologie acoustique » introduite par Murray Schafer, Hildegard Westerkamp décrit une grande partie de ses compositions musicales comme des soundscape compositions, des compositions à base de paysages sonores, comme il a été dit. C’est probablement Barry Truax qui emploie pour la première fois l’expression dans son livre de 1984, où il en donne la définition suivante, pour la distinguer de la musique électroacoustique : « La différence essentielle entre la composition électroacoustique qui utilise du son environnemental préenregistré comme matériau et une œuvre qui peut être appelée “composition à base de paysages sonores” est que, dans la première, le son perd tout ou presque tout son contexte environnemental. En fait, même son identité d’origine est fréquemment perdue à travers la transformation extensive qu’il a subie, et l’auditeur ne peut pas reconnaître la source à moins d’en être informé par le compositeur. De l’autre côté, dans la composition à base de paysages sonores, c’est précisément le contexte environnemental qui est préservé, encouragé et exploité par le compositeur. L’expérience passée de l’auditeur, les associations et les formes de la perception du paysage sonore sont invoquées par le compositeur et par conséquent intégrées dans la stratégie compositionnelle. Une part de l’intention du compositeur peut également être d’encourager la conscience de l’auditeur pour le son environnemental » (B. Truax, 1984 ; je traduis). Les œuvres musicales qui en résultent procèdent d’un mélange intéressant entre enregistrements de terrain (à des fins documentaires) et musique électroacoustique. Celles de Westerkamp restent plus proches des premiers – tout en allant résolument du côté de la musique – car les sons y sont moins transformés, tandis que celles de Truax sont plus facilement assimilables à de la musique électroacoustique – il faut d’ailleurs rappeler que le nom de Truax restera probablement dans l’histoire des technologies pour avoir implémenté la synthèse granulaire (en parallèle à Curtis Roads). Westerkamp précise : « Quelles que soient la continuité ou les proportions entre sons réels (non transformés) et sons abstraits (transformés), l’essence de la composition à base de paysages sonores repose dans la relation entre les deux et sur le comment cette relation, à l’intérieur de la composition, informe à la fois le compositeur et l’auditeur à propos du lieu, du temps et de la situation. Une pièce ne peut pas être nommée composition à base de paysages sonores si elle utilise du son environnemental uniquement comme matériau pour des explorations abstraites, sans aucune référence à l’environnement sonore » (H. Westerkamp, 1999 ; je traduis). Si l’on comprend bien cette différence entre musique électroacoustique et composition à base de paysages sonores – la première utilise le son pour explorer la morphologie sonore, la seconde le pense comme lien à l’environnement –, il n’en reste pas moins que la notion sur laquelle elle se fonde – le « paysage sonore » – n’est pas évidente. Murray Schafer l’introduit dans un petit fascicule destiné à l’enseignement de la musique, The New Soundscape (M. Schafer, 1969). Il expliquera qu’il l’a « dérivé du mot “landscape”, qui était également inconnu jusqu’à Pétrarque, le poète et érudit italien du XIVème siècle, qui décida un jour de marcher jusqu’au sommet d’une montagne pour voir la vue. Ce qu’il vit fut quelque chose qui n’avait jamais été vu auparavant et qui par conséquent devait être décrit par un nouveau mot : paysage » (M. Schafer, 2012-2013 : 6), en ajoutant : « Nous devons penser que dans certaines sociétés il y aura un large vocabulaire pour décrire les sons. Mais il n’existe peut-être pas un mot pour décrire tout ce que vous entendez durant votre vie entière. C’est ce qu’est le paysage sonore » (M. Schafer in L. De Caro, C. Daró, 2008 : 26). C’est dans son célèbre ouvrage The Tuning of the World (devenu The Soundscape : M. Schafer, 1977) qu’il définit pleinement l’expression comme constituant l’un des liens entre l’humain et l’environnement. Parmi les critiques du concept, on peut citer celle de Tim Ingold : « Incontestablement, lorsqu’il fut introduit, le concept servit un propos rhétorique utile en attirant l’attention sur un registre sensoriel qui avait été négligé comparativement à la . Je crois cependant qu’il a désormais fait son temps. Plus précisément, il court le risque que nous perdions le contact avec le son de la même manière que les études sur le visuel [visual studies] ont perdu le contact avec la lumière » (T. Ingold, 2007 : 10 ; je traduis). Comparant le son à la lumière (et non à un objet visible, à une image), Ingold nous dit que, de même que les études sur le visuel ont tendance à subordonner la vue à l’image, c’est-à-dire à penser les yeux comme des instruments restituant des images et non des organes de perception, grand est le risque que les études sur le paysage sonore transforment les oreilles en instrument de playback. En effet, la notion de paysage sonore implique l’idée d’une totalité, d’une entité saisie comme un tout cohérent et ordonné. Dans un paysage sonore, il y a des plans sonores (plus proche, plus lointain, en hauteur, plus bas...), des emplacements précis pour chaque son, une cohésion d’ensemble. Or, comme l’écrit Michel Chion (2000 : 11), « peut-on [...] parler de “paysage sonore”, de totalité organisée dans l’espace en premiers plans et en fond, en détails et en ensembles? C’est tout le problème de savoir si l’on peut totaliser ce qu’on entend ». Dans la mesure où le son évolue dans le temps, cette saisie globale ne correspond pas au processus d’écoute, au son écouté ; elle ne vaut que pour le son objectivement capté, c’est-à-dire pour le son enregistré, puisqu’il est fixé sur un support et qu’on peut le reproduire. Certes, le même problème se pose au visuel, mais dans une mesure bien moindre. En effet, la vue est à même de saisir cette globalité qu’on nomme paysage. On constate ainsi que le concept de paysage sonore, du fait de son origine, reste calqué sur le modèle du visuel : la globalité ordonnée qu’il fabrique suppose précisément une vue globale. COMPOSITIONS À BASE DE PORTRAITS SONORES
Le colloque auquel nous invitent Alexandre Galand, David Martens et Pauline Nadrigny propose de réfléchir à la notion de « portrait (sonore) », « en contraste avec la traditionnelle approche “paysagiste” qui a longtemps informé de façon prévalente notre rapport à l’environnement naturel, jusque dans sa dimension sonore » (Galand, Martens, Pauline Nadrigny, 2013, présentation du colloque) : « Le portrait, qui part de la dépiction d’individualités, joue comme un modèle alternatif : il permet de donner voix aux niches acoustiques qui habitent un territoire et lui confèrent son identité ; il a le mérite de ne pas supposer une structure préétablie, dans laquelle s’inscrivent les vivants ; il est ouvert à l’idée d’entropie, de singularité, de contingence... » (ibid.). Serait-il possible d’appliquer cette notion au travail de Westerkamp? Hildegard Westerkamp a utilisé au moins une fois l’expression « portrait sonore ». C’est en relation avec des enregistrements effectués durant ses voyages en Inde, dont sont issues les compositions From the India Sound Journal (1993-99), Dhvani (1996), Gently Penetrating Beneath the Sounding Surfaces of Another Place (1997), Into the Labyrinth (2000), Attending to Sacred Matters (2002) ainsi que l’installation sonore Nada (1998). On rencontre l’expression « portrait sonore », comme synonyme d’« instantanés de lieux et de situations » dans la notice de la première composition mentionnée : « From the India Sound Journal consiste en une série de portraits sonores instantanés de lieux et de situations dont j’ai fait l’expérience durant mes voyages en Inde » (Westerkamp, s.d., je traduis) (exemple 4).
Exemple 4. Hildegard Westerkamp. Source : From the India Sound Journal : Si l’expression « portrait sonore » se prête bien à ce « journal », qui présente des sons séparément, individualisés, est-ce qu’il s’applique à toute une composition? On pourra en juger à l’audition de l’œuvre musicale la plus aboutie issue des enregistrements indiens : Gently Penetrating Beneath the Sounding Surfaces of Another Place (pour audio deux pistes : Westerkamp, 2002). Il y a bien portraits si l’on considère que la pièce met en avant une figure qui fascine Westerkamp, la figure des vendeurs de rue : « Les voix des vendeurs de cette composition ont été enregistrées dans des quartiers spécifiques de New Delhi [...] Venant d’un contexte européen et nord-américain, j’ai été ravie par la présence quotidienne des voix des vendeurs. Comme la voix humaine des vendeurs a presque entièrement disparu en Europe du Nord et en Amérique du Nord et a été largement remplacée par la publicité dans les médias, c’est un peu un miracle pour le visiteur de ces régions d’entendre à nouveau de telles voix », nous dit-elle (Westerkamp, s.d., je traduis). Cependant, ces voix sont fondues dans une composition utilisant également des sons plus abstraits et faisant appel, comme Beneath the Forest Floor, à une « musicalisation » poussée : mixages subtils, enchaînements et forme globale structurés comme dans une composition musicale. On pourrait entendre des portraits sonores dans une tout autre pièce : Für Dich – For You (2005, pour audio huit pistes : Westerkamp, 2009). C’est encore une œuvre qui « explore un sentiment de lieu et d’appartenance, de foyer et d’amour. Pour souligner ce contexte, les sources sonores de la pièce consistent en des sons spécifiques provenant de deux endroits qui ont créé en moi un sentiment d’appartenance : l’Allemagne du Nord, où je suis née et où j’ai grandi, et Vancouver et la côte ouest du Canada, où je vis depuis plus de trente ans en tant qu’immigrée », écrit Westerkamp (s.d., je traduis). Mais cette pièce possède la particularité d’être basée sur un poème : le poème de Rilke qui en donne le titre. Celui-ci est lu, en allemand et en anglais, par des personnes très proches de Westerkamp (Murray Schafer, sa fille Sonja Ruebsaat et son père, Norbert Ruebsaat, etc.) ainsi que par elle-même. C’est pourquoi, en un sens, on pourrait y voir un ensemble de portraits sonores de ces personnes. C’est une caractéristique importante des pièces de Westerkamp : à côté de références à des paysages sonores, elles contiennent souvent des références à des êtres humains qui lui sont proches. En ce sens, une dernière composition qu’on pourrait mentionner ici est Moments of Laughter (1988, pour vois de femme et audio deux pistes : Westerkamp, 2022) : on pourrait l’appréhender comme un portrait sonore de sa fille, Sonja, dans ses toutes premières années. La pièce retrace « musicalement/acoustiquement l’émergence de la voix du petit enfant à partir de l’état océanique du ventre maternel : depuis les bribes sonores [soundmakings] du bébé jusqu’à la chanson et au langage de l’enfant » (Westerkamp, s.d., je traduis). Neuf moments la composent, dont les noms (donnés dans la partition) sont éloquents : « Prologue et naissance ; Dadawawa ; Gegogegodababl ; Dadado ; Chanson et jeu ; Le Soi et l’Autre ; Rire ; Chansons et histoire ; Vers le cœur » (H. Westerkamp, 1988b). Au centre, les « moments du rire », qui sont – Westerkamp cite Julia Kristeva – « ces moments durant la petite enfance dans lesquels l’enfant reconnaît l’“autre” comme distinct du “soi”. Ce sont les premiers moments créatifs qui parlent de la reconnaissance de soi et du lieu » (ibid.), moments générés par la distance que crée, chez le nourrisson, la reconnaissance de la mère comme un autre (l’autre qui le nourrit). La partie audio de la pièce est composée de la voix de Sonja enregistrée par sa mère, des enregistrements réalisés par Sonja elle-même, le tout retravaillé et finement monté, agrémenté (lors des premier et dernier moments) de sons produits en studio. Par-dessus, une voix de femme, qui suit une partition (dont la page de garde a été réalisée par Susanna Ruebsaat – un autre membre de la famille – à l’occasion de la naissance de Sonja : cf. exemple 5), où la compositrice a voulu faire le lien entre les techniques vocales étendues utilisées dans la musique contemporaine et « les caractéristiques vocales et les explorations sonores [soundmaking explorations] du bébé/enfant » (Westerkamp, 1988b). Le rôle de cette voix n’est peut-être pas sans évoquer la Sequenza III de Luciano Berio, à la différence essentielle que Berio, homme, écrit pour une femme. Il est particulièrement difficile car cette voix « interagit avec la bande, lors de la performance live. Elle tente, d’une part, de trouver son propre langage et sa propre musique et, d’autre part, d’imiter, de réagir et de jouer avec la voix de l’enfant sur la bande » (ibid.). En ce sens, Moments of Laughter est aussi un portrait sonore de la mère, depuis l’accouchement jusqu’aux premières années de sa fille. Exemple 5. Partition de Moments of Laughter, page de garde. Manuscrit inédit, publié avec l’aimable autorisation de Hildegard Westerkamp. L’ÉCOUTE
De l’importance des lieux chez Hildegard Westerkamp, on en est venu à l’importance des êtres humains. Ce glissement nous a permis de passer de la notion de « paysage sonore » à celle de « portrait sonore » – ou même de la « composition à base de paysages sonores » à la « composition à base de portraits sonore ». Mais ce glissement, outre le fait qu’il a limité l’utilisation de la notion de portrait sonore aux êtres humains, nous fait tomber dans une distinction entre lieux et personnes qui n’est pas fondamentale : comme on a pu le voir à travers certaines citations, Westerkamp, parle toujours de lieux et de « situations » (incluant la présence des humains). En réalité, la notion de « portrait sonore » n’est peut-être pas non plus l’expression la plus appropriée pour décrire le travail de notre compositrice. Tant la notion de paysage sonore que celle de portrait sonore mettent l’accent sur les objets – lieux et situations – auxquels se réfèrent les compositions de Westerkamp. Or, ce qui est important, c’est surtout l’expérience qu’elle nous en transmet. L’accent est toujours mis sur l’écoute. Aussi, j’aimerais conclure cet article en insistant sur l’importance de l’écoute pour Westerkamp. Elle-même se définit comme appartenant à une « communauté [celle de l’écologie acoustique] à présent plus large de gens écoutant [listening people], qui se soucient non seulement de la qualité du paysage sonore mondial, mais aussi de la qualité de l’écoute en général » (H. Westerkamp, 2003 : 3) : « gens écoutant » est effectivement une bonne définition de ceux et celles qui sont passés par l’écologie acoustique. Le premier numéro de la revue Soundscape. The Journal of Acoustic Ecology (2002), édité par ses soins, est justement dédié à l’écoute (cf. exemple 6). Dans son éditorial, elle écrit : « Nous avons fait de l’écoute le thème de ce premier numéro de Soundscape parce que l’écoute constitue la base de tout travail dans l’écologie acoustique. Sans connaître ce qui entre dans nos oreilles et sans comprendre les implications environnementales, sociales, culturelles et personnelles de ces entrées, il ne peut guère y avoir d’étude de l’écologie acoustique. La pratique quotidienne de l’écoute développe en chacun d’entre nous une relation consciente d’ordre physique, émotionnel et mental à l’environnement. Comprendre cette relation est, en soi, un outil essentiel pour l’étude du paysage sonore et procure une motivation importante pour s’emparer des questions actuelles de l’écologie acoustique – que le contexte concerne notre vie personnelle ou professionnelle » (H. Westerkamp, 2000 : 3 ; nous traduisons).
Exemple 6. Couverture de la revue Soundscape. The Journal of Acoustic Ecology n°1. Source: Westerkamp, s.d. © Photo: Jürgen Heller. Reprodu
. Pour illustrer cette importance de l’écoute, je prendrai l’exemple d’une composition sonore issue d’une promenade sonore : Kits Beach Soundwalk (1989), pour sons enregistrés, avec ajout d’une narration (voix de la compositrice). Westerkamp nous explique : « À la fin des années 1970, j’ai produit [...] un programme de radio pour la Radio Coopérative de Vancouver, appelé Soundwalking, dans lequel j’emmenais l’auditeur dans des endroits différents dans et autour de la ville, endroits que j’explorais acoustiquement. Kits Beach Soundwalk constitue une extension compositionnelle de cette idée originelle. La plage Kitsiliano – appelée familièrement plage Kits d’après le chef de la Première nation Squamish, ats’alanexw (Khahtsahlano) – se situe au cœur de Vancouver. En été, c'est l'une des plages les plus fréquentées de Vancouver, remplie de baigneurs. A l’époque de la création de la pièce, à la fin des années 1980, elle était également remplie de musiques provenant de nombreux ghetto blasters, à des années-lumière du silence vécu ici il n'y a pas si longtemps par les habitants indigènes. L’enregistrement originel sur lequel est basée cette pièce a été effectué un matin d’hiver calme, lorsque le clapotis tranquille de l’eau et les faibles sons de bernacles se nourrissant étaient audibles au-devant d’un fond acoustique de la ville bruyante. Dans cette composition à base de promenade sonore nous laissons la ville derrière nous et explorons le minuscule royaume acoustique des bernacles, les hautes fréquences, l’espace intérieur et le rêve » (H. Westerkamp, s.d. ; je traduis). Ce qui est frappant, dans cette œuvre, c’est le fait que Westerkamp nous fait écouter son écoute, et ceci grâce à sa narration qu’accompagnent quelques simples transformations électroniques des enregistrements2. Voici une transcription de la narration (et une traduction en français) pour les trois premières minutes de la pièce, avec, en souligné, l’indication des transformations sonores3. [0’21’’] C’est un matin tranquille Je suis sur la plage Kits à Vancouver. Le temps est légèrement couvert – et très doux pour janvier. C’est absolument sans vent. L’océan est plat, avec quelques ondulations par endroits. Les canards flottent tranquillement sur l’eau. Je suis au milieu de quelques larges rochers pleins de bernacles et d’algues. L’eau se déplace calmement dans les crevasses. Les bernacles tendent les doigts pour se nourrir de l’eau. Les petits cliquetis que vous entendez sont la rencontre de l’eau et des bernacles. Cela ruisselle et clique et suce et... La ville rugit autour de ces petits sons. Mais elle ne les masque pas. [1’42’’] Je pourrai vous choquer ou vous tromper en vous disant que le paysage sonore est intense de cette manière [elle monte le niveau sonore] Mais il est plus comme cela [elle baisse le niveau] La vue est belle – en fait, elle est spectaculaire. Aussi, le niveau sonore semble être plutôt ainsi [elle baisse encore plus le niveau sonore] Cela ne semble pas très fort. J’essaie maintenant d’entendre ces petits sons plus en détail. Soudainement, le fond sonore de la ville semble à nouveau plus fort [elle monte le niveau] Il interfère avec mon écoute. Il occupe tout l’espace acoustique et je ne peux plus écouter les bernacles dans leur petitesse. Il udrait beaucoup d’efforts pour filtrer la ville. [3’00’’] [changement important : l’enregistrement de terrain disparaît progressivement et des sons travaillés en studio apparaissent progressivement] Heureusement, nous avons des filtres passe-bandes et des égaliseurs. Nous pouvons simplement aller au studio et nous débarrasser de la ville, faire comme si elle n’était pas là, prétendre que nous sommes quelque part au loin. La narration continue tout le long de la pièce et nous mène vers plusieurs rêves – peut-être une première pour l’histoire de la musique4. « Dans un rêve, des femmes vivant dans un ancien village de montagne tissaient le plus beau tissu de soie. Cela ressemblait à un million de petites voix chuchotant, bruissant, cliquetant, grésillant », entend-on à 4’37’’. Et, en effet, depuis environ 1’00’’, la pièce est de plus en plus envahie par des sons brefs et aigus (« petits sons », « tiny sounds », qui sont censés être les sons des bernacles). Cette matière sonore – qui sera progressivement enrichie par des sons brefs d’insectes, de criquets, de grillons d’eau ou autres – domine la pièce à partir de 3’20’’. Puis (5’21’’) : « Dans un autre rêve, quand je suis entrée dans une maison en pierre, je suis entrée dans un paysage sonore créé par quatre générations d’une famille paysanne assise autour d’une grande table en bois en train de manger et de parler : claquant et cliquant et suçant et crachant et racontant et 2 C’est sans doute pourquoi J. Sterne (2019 : 90) qualifie cette pièce de « didactique ». 3 Cette transcription est en partie basée sur l’analyse d’A. McCartney, 1999 : 218-219. 4 On connaît le rêve de Varèse : « J’ai rêvé de deux Fanfares – J’étais sur un bateau qui tournait en plein océan vertigineusement en grands cercles. Au loin on voyait un phare très haut – et tout en haut, un ange – et c’était toi – une trompette dans chaque main », se rapportant à Arcana (lettre à Louise Varèse, 1926, in E. Varèse, 1983 : 44-45). mordant et chantant et riant et pleurant et embrassant et gargouillant et chuchotant ». 6’33’ : « Dans un autre rêve, j’ai entendu des balles tinter, rebondir comme de minuscules billes. Un homme me poursuivait avec une arme à feu. J’étais effrayée. Mais les balles ont tinté. Métallique, minuscule sperme séduisant, tintant tout autour de moi ». Et, en effet, dès 6’30’’, on commence à entendre, sous les « petits sons » – des sons granulaires, faudrait-il dire désormais – de brefs paquets de sons qui semblent sonner comme s’ils étaient métalliques. En fait, il s’agit des masses de braises ardentes composées par Xenakis pour Concret PH (la première pièce granulaire de toute l’histoire de la musique) : « Comme dans Concret PH de Xenakis, fait à partir des sons de la décharge de charbon de bois qui brûle. Tintement partout dans le Pavillon bruxellois, “à la manière d’aiguilles dardant de partout”, comme le dit Xenakis. Vous pouvez entendre des extraits de cette pièce en ce moment », nous dit Westerkamp (6’54’’), avant de diffuser un extrait entier de la pièce de Xenakis. À 7’38’’, Concret PH est travaillé en quelque sorte de l’intérieur par des arpèges, ce qui conduit au dernier rêve : « Dans un autre rêve, assis dans la voiture avec une amie, j’ai entendu des bruits de verre clignoter et tinter, pétiller. Sur l’autoradio, ils ont annoncé que c’était du Mozart – la manière avec laquelle Tomatis veut que nous entendions Mozart. Tintement et pétillement » (à 4’07’’, la narration disait : « Alfred Tomatis dit que les hautes fréquences rechargent notre cerveau et nous do de l’énergie »). Les arpèges préparent l’arrivée discrète de Mozart à 8’00’’ (au milieu de Concret PH transformé en arpèges), probablement un quintette à vents, qui prend de l’importance, alors que la compositrice dit : « C’étaient les rêves de guérison. Énergisants ». À 8’40’’, Mozart disparaît pratiquement, dominent à nouveau les sons d’insecte (en fait il s’agit du rythme d’une vieille enseigne au néon clignotant5) et Westerkamp nous dit : « Dès que je fais de la place pour entendre des sons comme ceux-là, ou pour les rêver. Ensuite, je ressens la force d’affronter à nouveau la ville ou même d’être ludique avec elle. Jouer avec le monstre. On est loin d’une promenade sonore (sans parler d’une promenade d’écoute). Cette composition délicieuse qu’est Kits Beach Soundwalk, on l’aura compris, est très finement travaillée aussi bien dans ses détails que dans sa macroforme – comme en atteste le sonagramme de la brève analyse de S. Emmerson et L. Landy (2016 : 25). Cependant, c’est précisément la force de Hildegard Westerkamp : nous amener du quotidien à l’artefact le plus élaboré artistiquement, mais sans rompre avec le quotidien. Qu’il s’agisse de compositions issues de promenades sonores, de compositions à base de paysages sonores ou encore de compositions à base de portraits sonore, l’intégration de sons environnementaux se fait toujours par en mettant l’accent sur l’expérience et sur l’écoute de ces sons.
RÉFÉRENCES
Chion, Michel. 2000. Le Son. Paris : Nathan/HER. Emmerson, Simon et Landy, Leigh. 2016. « The analysis of electroacoustic music: the different needs of its genres and categories », dans Emmerson, Simon et Landy, Leigh, Expanding the Horizon of Electroacoustic Music Analysis. Cambridge: Cambridge University Press. Galand, Alexandre, Martens, David et Nadrigny, Pauline. 2022. Présentation du colloque Portraits sonores de pays. 5 Clarification apportée par Hildegard Westerkamp à la lecture de cette analyse (échange de mails, décembre 2021). Elle ajoute : « vous pouvez entendre à quel point il a une pulsation beaucoup plus mécanique, que vous n'obtiendriez probablement pas avec cette régularité d’un insecte – du moins c’est ce que je pensais à l'époque. Donc pour moi, c’était l’anticipation du paysage sonore urbain ». Ingold, Tim. 2007. « Against soundscape », dans Angus Carlyle (dir.), Autumn Leaves, Sound and Environment in Artistic Practice. Paris: Double Entendre. McCartney, Andra Shirley. 1999. Sounding Places: Situated Conversations through the Soundscape Compositions of Hildegard Westerkamp. PhD, Toronto, York University. Schafer, R. Murray. 1969. The New Soundscape. A Handbook for the Modern Music Teacher. Ontario: Berandol Music Limited. Schafer, R. Murray. 1977.The Tuning of the World. A pioneering Exploration into the Past History and Present State of the Most Neglected Aspect of our Environment: The Soundscape. New York: A. Knopf. Cité d’après : Schafer R., Murray. 1979. Le paysage sonore. Toute l’histoire de notre environnement sonore à travers les âges, traduction Sylvette Gleize. Paris : J.C. Lattès. Schafer R., Murray. 2012-2013. « Soundscape studies: the Early Days and the future », Soundscape. The Journal of Acoustic Ecology vol. 12 n°1, p. 6-8. Solomos, Makis. 2023. Exploring the Ecologies of Music and Sound. Environmental, Mental and Social Ecologies in Music, Sound Art and Artivisms, traduction Jennifer Higgins. Londres : Routledge (à paraître en français aux éditions Les presses du réel). Sterne, Jonathan. 2019. « Multimodal Scholarschip in World Soundscape Project Composition: Toward a Different Media-Theoretical Legacy (Or: The WSP as OG DH) », dans Milena Droumena et Randolph Jordan (dir.), Sound, Media, Ecology. Suisse: Palgrave Macmillan, p. 85-109. Truax, Barry. 1984. Acoustic Communication. Norwood, N.J.: Ablex Publ. Corp. Varèse, Edgar. 1983. Écrits, textes réunis et présentés par Louise Hirbour. Paris : Christian Bourgois. Westerkamp, Hildegard. 1985. « Acoustic Ecology and the Zone of Silence », Musicworks 31. Westerkamp, Hildegard. 1988a. Listening and soundmaking: a study of music-as-environment. Master thesis, Simon Fraser University. Westerkamp, Hildegard. 1988b. Partition de Moments of Laughter, inédit. Westerkamp, Hildegard. 1999. « Soundscape Composition: Linking Inner and Outer Worlds », dans Wester , s.d. Westerkamp, Hildegard. 2000. « Editorial », Soundscape. The Journal of Acoustic Ecology vol. 1 n°1, p. 3-4. Westerkamp, Hildegard. 2002a. « Linking Soundscape Composition and Acoustic Ecology », Organised Sound vol. 7, n°1. Westerkamp, Hildegard. 2002b. CD Hildegard Westerkamp, Into India. Earsay productions. Westerkamp, Hildegard. 2003. « 70 years. Best Wishes to Murray Schafer », Soundscape. The Journal of Acoustic Ecology vol. 3 n°2, p. 3. Westerkamp, Hildegard. 2007. « The Local and Global “Language” of Environmental Sound », dans Andrew Houston (dir.), Environmental and Site-Specific Theatre, Canadian Perspectives on Canadian Theatre in English, Volume Eight. Playwrights Canada Press. Westerkamp, Hildegard. 2009. CD trans_canada (compositions de Nicolas Bernier, Darren Copeland, Francis Dhomont, Louis Dufort, Gilles Gobeil, Robert Normandeau, Barry Truax, Hildegard Westerkamp). Karlsruhe: Zentrum für Kunst und Medientechnologie Karlsruhe, Label Empreintes DIGITALes, IMED 09100. Westerkamp, Hildegard. 2010. CD Hildegard Westerkamp, Transformations. Label Empreintes DIGITLes, IMED 1031. Westerkamp, Hildegard. 2011. « Exploring Balance and Focus in Acoustic Ecology », Soundscape. The Journal of Acoustic Ecology vol. 1 n°1, p. 7-13. Westerkamp, Hildegard. 2022. CD Hildegard Westerkamp, 2022 Breaking News. Earsay producionts, es-22001. Westerkamp, Hildegard. s.d. Site internet personnel, consulté le 13 juin 2023. En ligne : https://www.hildegardwesterkamp.ca/.
| 7,722
|
tel-04550000-2023_arch_ferlay_jb.txt_6
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
La dérogation en droit de l'urbanisme. Droit. Université Jean Moulin - Lyon III, 2023. Français. ⟨NNT : 2023LYO30043⟩. ⟨tel-04550000⟩
|
None
|
French
|
Spoken
| 7,637
| 12,772
|
140. L’absence de dérogation au sein du droit permissif. L’aménagement que permet de réaliser la dérogation conduit à modérer la dimension impérative de la règle de droit. Or le droit permissif aboutit déjà à cet agencement de l’impératif. Face à ce type de normes, la dérogation n’est pas nécessaire ; son application étant déjà, en elle-même, soumise à une appréciation6. On retrouve aussi cette réflexion chez Gilles Godfrin, lorsque celui-ci précise qu’une autorisation d’urbanisme, fondée sur la non-application d’une règle permissive, ne peut être qualifiée de dérogatoire7.
Le 1 C. GROULIER, Norme permissive et droit public, op. cit. ; J.-M. FEVRIER, Remarques sur la notion de norme permissive, D., no 28, 23 juillet 1998, p. 271, concernant plus spécifiquement le droit de l’urbanisme, v. aussi, P. SOLER-COUTEAUX, Le droit de l’urbanisme permissif, RDI, 2020, p. 8. 2 C. GROULIER, Norme permissive et droit public, op. cit., p. 13 ; C. GROULIER, Peut-on penser la norme juridique sans l’
impératif
?, op. cit., spé p. 257 et s. ; J.-M. FEVRIER, Remarques sur la notion de norme permissive, op. cit
. 3 Si Cédric Groulier fait une distinction entre les aspects obligatoires et impératifs de la règle de droit, la majorité de la doctrine rattache l’existence d’une règle de droit à l’existence d’une dimension impérative de la règle. Nous nous joignons à une telle position, v. en ce sens : C. GROULIER, Peut-on penser la norme juridique sans l’impératif? op. cit.
, p. 247 ; v. pour une réflexion inverse : D. de BECHILLON, Qu’est-ce qu’une règle de droit?, op. cit., p. 181 et s. 4 C. LEBEN, Impératif juridique, dérogation et dispense, op. cit., p. 33. 5 Selon Cédric Groulier, la norme juridique se caractérise par une double impérativité : « sa capacité à imposer et à s’imposer » la dimension obligatoire rêvant du premier aspect et la dimension impérative du second. C. GROULIER, Peut-on penser la norme juridique sans l’impératif? op. cit., p. 247. 6 C’est aussi le constat que porte Charles Leben pour qui Certaines lois (...) peuvent être écartées par les sujets de droit », in, Impératif juridique, dérogation et dispense, op. cit., p. 34. 7 G. GODFRIN, Dérogation d’urbanisme : la levée d’un tabou? op. cit. ; en outre, selon lui, la jurisprudence semble avoir incidemment admis cela : CE, 9 mai 1980, Bègue, n°04810, t. Leb. 63 constat est donc limpide : si les sujets de droit ont la possibilité d’écarter la règle qui leur est opposable, le recours à la dérogation est superflu1. 141. Un premier élément de définition de la dérogation se dégage ici : les règles permissives ne peuvent en être porteuses. Pour illustrer cela, il peut être pris pour exemple les dispositions du RNU. Le Code de l’urbanisme comporte au sein de son RNU des dispositions qui sont impératives, d’autres non. Si, concernant les premières, la nécessité de recourir à la dérogation semble pouvoir se justifier2, il n’en va pas de même pour les secondes. Certaines dispositions « peuvent » servir de fondement par moment à la délivrance du permis de construire ; mais il ne s’agit que d’une possibilité. 142. Plus largement le cas des lignes directrices corrobore aussi ce constat. Lors de son analyse du régime juridique de ces documents internes à l’administration, Jean Waline indique que ces normes juridiques découlent d’une volonté de l’autorité administrative « investie d’un pouvoir discrétionnaire », de subordonner l’examen de situations individuelles des administrés à des « critères généraux » 3. Or l’édiction et l’application de ces lignes directrices ne sont, par essence, qu’une faculté. Il ne s’agit en aucun cas d’une obligation. Un tel constat suppose donc, là aussi, l’exclusion de la dérogation. Jean Waline en fait implicitement le constat : la présence d’une ligne directrice n’interdit pas leur mise à l’écart lorsqu’ « un cas particulier lui paraît l’exiger »4. La dérogation est donc absente, l’application de la règle étant déjà en elle-même une éventualité. Le considérant de principe de l’arrêt « Crédit foncier de France » en fait la démonstration, les requérantes n’invoquant « aucune particularité de leur situation au regard des normes susmentionnées », ces dernières ne justifiaient pas d’une situation « de nature à justifier qu’il y fut [soit] dérogé » à l’application de ces directives5. L’emploi du terme de dérogation n’est ici pas anodin, mais ne doit pas être interprété littéralement. En effet, son usage n’indique pas la présence d’une dérogation à la ligne directrice, mais bien une faculté dans l’application de cette règle6. Ainsi, l’administration ayant le pouvoir d’écarter la norme ab initio, les lignes directrices présentes en droit de l’urbanisme ne peuvent donc pas être concernées par la 1 Dans la même logique, pour Cédric Grouli , « évoquer la violation d’une norme permissive serait un non-sens », in, Norme permissive et droit public, op. cit., p. 245. 2 Sur la relation entre les effets de la dérogation et la nature du RNU, v. Partie II, Titre 1, Chapitre 2, Section 1. 3 J. WALINE, Droit administratif, 28e éd., Dalloz, 2020, p. 456. 4 Id. 5 CE, 11 déc. 1970, n° 78880, Crédit foncier de France, Rec. Leb. 750, op. cit. ; de façon plus récente, l’arrêt « GISTI » en est aussi un exemple, celui-ci faisant une distinction entre les actes de droit souples de nature impératif et les lignes directrices, v. CE, 12 juin 2020, GISTI, n° 418142, Rec. Leb., op. cit. ; v. aussi, CONSEIL D’ÉTAT, Le droit souple, Étude annuelle, op. cit., p. 65. 6 Pour d’autres exemples, v. notamment CE, 23 mai 1980, Agence nationale pour l’amélioration de l’habitat, n° 13433, Rec. Leb. 238 ; CE, 18 nov. 1977, SA Entreprise J. Marchand, n° 00619, Rec. Leb. 442. 64 dérogation individuelle. Celle-ci est surabondante. En définitive, sur le plan théorique, la dérogation s’évapore au contact du droit lorsque celui-ci ne dispose pas d’une dimension impérative.
2) L’exclusion relative de la dérogation au sein du droit semi-souple en raison de sa coercition 143. Dans le cadre des règles de droit s’appliquant de façon
impérative,
l’élément coercitif
n’est pas homogène
et
divers
es graduations restent présentes1. En effet, diverses normes, en raison de leur rédaction, sont en mesure de tolérer certaines approximations ou transgressions. C’est notamment le cas lorsque la règle de droit fixe un objectif, une orientation ou entend inciter un comportement. Dans ces conditions, la présence de dérogation n’est plus à exclure. 144. La diversité des textures du droit impératif. Le postulat initial veut que seules les règles disposant d’un fort aspect impératif puissent supporter des dérogations. Certains auteurs s’en font l’écho. D’après Pierre-André Lecoq, il n’y aura de dérogation que là où il y a un « système juridique rigide »2. Seule cette texture juridique serait donc soumise aux techniques de modulation de la règle3. Toutefois, cette position binaire n’est, à nouveau, qu’illusoire. La nature impérative de la règle disposant de différents degrés, elle nous conduit à appréhender sous ce seul mot des réalités bien différentes4. 145. Le droit semi-souple est, en raison de sa plasticité, presque automatiquement rattaché à l’idée d’absence de coercition. Pour la doctrine, et notamment Denys de Béchillon 5, se demander ce qu’est cette forme de droit souple revient à nouveau à s’interroger sur la nature du droit luimême. De telles réflexions excédant le champ de notre recherche, nous nous limiterons donc à la position retenue par Denys de Béchillon et Catherine Thibierge6 : une règle impérative qui relève du droit souple est une règle obligatoire disposant d’un faible degré de coercition.
1 Concernant le terme texture, v. les analyses de Paul Amselek pour qui il est ici aussi question de la « texture ouverte » du droit : P. AMSELEK, La teneur indécise du droit, op. cit. ; v. aussi H. L. A. HART, P. A. BULLOCH et J. RAZ, Le concept de droit, op. cit., pp. 143-154. 2 P.-A. LECOCQ, Le pouvoir de dérogation de l’administration, op. cit., p. 5. 3 Nous pouvons noter que le juge cherche parfois à orienter la texture de certaines règles. Ainsi certaines décisions du Conseil Constitutionnel imposent un certain degré de précision à la loi. Cette dernière ne peut disposer d’une texture trop floue, elle se doit de répondre à un certain impératif de rigidité, v. en ce sens Cons. const. Décision du 29 juill. 2004, n°2004-500 DC, Loi organique relative à l’autonomie financière des collectivités territoriales ; Loi organique relative à l’autonomie financière des collectivités territoriales ; JCP A., 2005. I. n°192, chron. B. Mathieu et M. Verpeaux, n°24 et 25 ; D., 2005, p. 1125, obs. V. Ogier-Bernaud et C. Severino ; Cons. const. Décision du 21 avr. 2005, n° 2005-512 DC, Loi pour l'avenir de l'école ; D.
2006
, p. 826, obs. V. Ogier-Bernaud et C. Severino ; ibid.
2005
, p. 1372, point de vue J.-C. Zarka ; RFDA,
2005
, p. 922, note G. Glénard
; ibid.
p
. 930,
note
W. Sabete ; RTD
civ., 2005
,
p
. 564, obs. P. Deumier
. 4 P.-A. LECOCQ, Le pouvoir de dérogation de l’administration, op. cit., p. 12. 5 D. de BECHILLON, Qu’est-ce qu’une règle de droit? op. cit., p. 181
et s. 6 Pour le premier, toute règle de droit dispose d’un impératif, que celle-ci soit une règle de droit « souple » ou non. Dans le même sens, selon Catherine Thibierge, la règle se doit d’être pourvue d’une contrainte juridiquement organisée, ce qui suppose une dimension impérative même si celle-ci est faible. Là où elle ne l’est pas, elle perd sa juridicité, v. Id., p. 181 et s. ; C. THIBIERGE, Le droit souple, Réflexion sur les textures du droit », op. cit. ; en outre, soulignons que la 65 146. La distinction entre l’aspect obligatoire et l’aspect coercitif de la norme. Une norme impérative appartenant au droit souple n’écarte aucunement le lien d’obligatoiriété. Dès lors que la norme est impérative – et donc non supplétive1 - son application revêt un caractère obligatoire. Et, si la dimension contraignante de la règle peut être diluée par différents moyens, il ne suppose aucunement la perte de l’élément obligatoire de la règle impérative. Ce constat est partagé par l’ensemble de la doctrine2. 147. Ainsi, une règle impérative – et donc obligatoire – disposant d’un fort degré de coercition appartient au droit « dur ». Mais, si la coercition de cette règle s’allège, la norme appartient au droit semi-souple. Or parmi les règles disposant d’une faible coercition, toutes n’ont pas la même composition. Au regard du postulat dressé par Catherine Thibierge, une règle impérative, mais peu coercitive peut être malléable, flexible ou floue3. Par conséquent, cette texture normative n’écarte pas l’idée d’un aménagement de cet aspect obligatoire. Néanmoins, au-delà de ces considérations théoriques, en raison de leur faible dimension coercitive, la dérog sera d’une utilité très relative ; elle n’aménagera qu’un faible degré de contraintes. 148. L’exemple du document d’objectif et d’orientation (DOO) du SCOT. S’il est théoriquement possible d’adapter le contenu obligatoire d’une règle relevant du droit souple, cette approche reste assez peu réaliste et pousse à considérer qu’ici aussi, la dérogation devient une technique superflue. À titre d’exemple, les normes contenues par le DOO ne semblent pas relever, d’un point de vue pratique, d’une rigidité suffisante pour y greffer une dérogation. Bien que la loi « Grenelle II » de 20104 et les ordonnances du 17 juin 20205 aient « rigidifié » certains éléments de règle disposera en son sein d’une très grande diversité de degrés de coercition dont les formes les plus légères sont proches du non-droit. Précisons que l’approche de Catherine Thibierge semble compléter sur ce point la vision de Paul Amselek (P. AMSELEK, La teneur indécise du droit, op. cit.) et notamment sur sa définition du droit « souple ». Selon ce dernier, le droit souple peut être distingué du droit « dur » en fonction de la coercition de la règle de droit ; sur la question du « non droit », v. J. CARBONNIER, Flexible droit, op. cit. p. 25 et s. 1 Si la règle est supplétive, elle ne peut donner lieu à une dérogation, v. en ce sens,
F.
BOCQUILLON, Loi susceptible de dérogation
et
loi supplétive
:
Les enjeux de la distinction en droit du travail, op. cit.. 2
J
.-
F
.
STRU
ILLOU, Le degré de normativité des mesures fixées dans le document d’orientation et d’objectifs du SCoT, dans La planification stratégique : entre droit souple et droit dur, Étude en l’honneur de Jean-Pierre Lebreton, AUH, 2015, p. 333. 3 Flou, car peu précis ; malléable, car de sanction faible ; flexible, car mouvant, v. C. THIBIERGE, Le droit souple, Réflexion sur les textures du droit, op. cit. 4 Loi n° 2010-788 du 12 juillet 2010 portant engagement national pour l’environnement (JORF n°0160 du 13 juillet 2010). 5 Ordonnance n°
2020-744 du
17juin
2020 relative
à la modernisation des schémas de cohérence territoriale (JORF n°0
149
du 18 juin
2020
) ; J.-P. STREB
LER et P. SOLER
-
CO
UTE
AUX, La modern
isation
des
SCoT : le projet, toujours le projet, encore le projet, RDI,
2020
,
p
.
502
; É. CARPENTIER et R. NOGUELLOU, Que tout change pour que rien ne change
. Les ordonnances du
17
juin 2020
en
matière
d’
urbanisme, AJDA, 2020, p. 2258. 66
ce document1, celui-ci dispose d’une armature normative suffisamment malléable pour intégrer les adaptations qui seront nécessaires. 149. Ce constat est d’ailleurs confirmé par Julie Burguburu, laquelle, dans ses conclusions sous un arrêt « Regroupement des organismes de sauvegarde de l’Oise », considère que « le seul dépassement d’une norme quantitative » n’est pas incompatible, dès lors que ce dépassement ne fait « obstacle aux orientations » choisies par le SCOT2. Ainsi, la malléabilité de la règle admet, en son sein, des écarts ponctuels. La dérogation individuelle est donc inutile. 150. Toutefois, l’hétérogénéité du contenu des orientations du SCOT est susceptible réinterroger ce constat. La volonté d’obliger les auteurs de ce document à prendre position plus fermement sur certains sujets stratégiques3 a en effet alors conduit le législateur à « rigidifier » les normes relatives au commerce et à la densité4. C’est notamment le cas du document d’aménagement artisanal et commercial (DAAC) qui, intégré au sein du DOO, est chargé de déterminer les conditions d’implantation des équipements commerciaux. Les contraintes engendrées par ce document peuvent être importantes, celui-ci étant, par exemple, susceptible de prévoir « les conditions d’implantation, le type d’activité et la surface de vente maximale des équipements commerciaux »5. En effet, par un arrêt « Société Davalex », le Conseil d’État a reconnu que le SCOT peut « contenir des normes prescriptives »6. Ces prescriptions sont, à titre principal, opposables aux « autorisations délivrées par les commissions d’aménagement commercial » applicables en vertu de l’article R. 751-2 du Code de commerce,7 mais le sont aussi à l’égard des permis de construire valant autorisation d’équipement commercial. Dans une telle conjecture, ce document devient directement opposable aux autorisations d’occupation des sols, ce qui, en soi, n’est pas la vocation première du SCOT. 1 Le DOO n’est donc, pour l’heure, pas susceptible d’intégrer des dérogations en son sein ; v. aussi sur ce point, É. CARPENTIER et R. NOGUELLOU, Que tout change pour que rien ne change. Les ordonnances du 17 juin 2020 en matière d’urbanisme, op. cit. ; M. DAVID, Le caractère prescriptif des SCOT, AJDA, 2011, p. 483 ; plus largement, J.P. STRE
LER, Schémas de cohérence territoriale JurisClasseur Administratif, 30 septembre 2014 ; Fasc. 506. 2 Concl. ss. CE, 18 déc. 2017, Regroupement des organismes de sauvegarde de l'Oise, n° 395216, cité par T. THUILLIER, La hiérarchie des normes en droit de l’urbanisme : des clarifications en demi-teinte, BJDU, 2019, p. 10. 3 P. SOLER-COUTEAUX, L’ardente obligation du SCOT, AJDA, 2003, p. 1532 ; J.-P. Strebler, Grenelle 2 et SCOT : des ambitions renforcées et une présence plus forte de l’État, RDI, n°2, 2011, p. 87. 4 T. SCHELLENBERGER, Encadrer la densité et la consommation foncière dans les SCOT et les PLU. Réflexions sur le rôle et la place des normes en droit de l’urbanisme, Droit et Ville, n°78, 2014, p. 75. 5 Art. L. 141-17 du Code de l’urbanisme. 6 CE, 12 déc. 2012, Sté Davalex, n° 353496, t. Leb. ; AJDA, 2013, p. 416, note F. Bouyssou ; ibid. 2012. 2409 ; RDI, 2013, p. 112, obs. P. Soler-Couteaux ; AJCT, 2013, p. 211, obs. J.-Ph. Strebler ; BJDU, 2013, p. 97, concl. G. Dumortier, obs J. Trémau. ; DAUH 2013, p. 220, n°234 ; ibid., p. 221, n°235, chron. J.-P. Demouveaux, J.-P. Lebreton et F. Priet. 7 Sur l’indépendance des législations entre l’urbanisme « de droit commun » et l’urbanisme commercial, v. VANDERMEER, Le régime de l’urbanisme commercial : vers la fin d’une exception française?, op. cit. ; F. BOUYSSOU, Droit de l’urbanisme et développement économique et commercial , op. cit. ; J.-P. FERRAND, Les obstacles au développement d’une véritable politique d’aménagement commercial dans les SCOT, Droit et Ville, no 78, février 2014, p. 43. 151. Toutefois, sa nature allant à rebours de la logique stratégique du SCOT1, ce document a été marginalisé par les pouvoirs publics lors de l’édiction de l’ordonnance du 17 juin 20202. En effet, grâce à cette réforme, l’autonomie du DAAC à l’égard du DOO a été renforcée ; le premier pouvant faire l’objet d’une révision ou une annulation sans que cela n’emporte de conséquences sur le second ou, plus largement, sur le SCOT3. L’objectif est ici très clair : la rigidité du DAAC ne doit pas contaminer l’ensemble du DOO. Ce faisant, s’il apparaît que ce document dispose d’un régime qui lui est propre, avec des normes susceptibles d’accueillir la dérogation4. 152. Toujours concernant le SCOT, les enjeux relatifs à la densité sont aussi source d’interrogation. Occupant une place « plus précise et qualitative »5, cet objectif s’est d’abord manifesté lors de la loi ENE de 2010, cette dernière obligeant les collectivités à « se prononcer explicitement, à partir de données chiffrées, sur la politique qui sera menée » en matière de gestion économe du sol6. C’est ensuite la loi ALUR qui est venue renforcer la consistance de ce principe lorsqu’il est question de densité7. Il en résulte que le SCOT a ici la capacité de fixer des planchers de densité qui seront opposables aux PLU. Il lui est aussi possible de délimiter des secteurs dans lesquels les PLU doivent imposer une densité minimale de construction8. Dans cette logique, ces normes du DOO seraient, avec le DAAC, susceptibles de contenir une rigidité suffisante pour considérer qu’une dérogation individuelle puisse s’y adosser.
1 J.-P. FERRAND,
obstacles au développement d’une véritable politique d’aménagement commercial dans les SCOT, op. cit. 2 Ordonnance
n
°
2020-744 du
17 juin 2020 relative à la modernisation des schémas de cohérence territoriale (JORF n°0149 du 18 juin 2020). 3 Pour une analyse complète des effets de l’ordonnance du 17 juin 2020 sur le SCOT, v. É. CARPENTIER et R. NOGUELLOU, Que tout change pour que rien ne change. Les ordonnances du 17 juin 2020 en matière d’urbanisme, op. cit.
4 À titre d’illustration, sur le caractère prescriptif des dispositions du DAC issus du SCOT de la région de Grenoble indique que : « Les périmètres d’influence recherchés s’appliquent à l’ensemble des commerces de détail, mais ils s’appliquent de manière différente pour les commerces de « proximité », qui doivent être, de manière préférentielle, implantés à l’intérieur des espaces urbains mixtes (les ZACOM de type 1 et 2 définies ci-après), et pour les commerces de « non proximité », qui peuvent être implantés dans des espaces économiques extérieurs aux espaces les périmètres d’influence recherchés. Les documents d’urbanisme locaux devront préciser les périmètres d’influence des communes concernées, et les pôles auxquels elles peuvent être rattachées, en matière de commerce ». (p.21), Document d’aménagement commercial de la région grenobloise SCoT de la région grenobloise, 2012 ; Par ailleurs, précisons également que, si la loi « 3DS » (loi n° 2022-217 du 21 février 2022 relative à la différenciation, la décentralisation, la déconcentration et portant diverses mesures de simplification de l’action publique locale, op. cit.) a modifié la procédure de délivrance des autorisations d’urbanisme, elle n’a pas remis en cause l’autonomie entre le DAAC et le DOO. 5 T. SCHELLENBERGER, Encadrer la densité et la consommation foncière dans les SCOT et les PLU. Réflexions sur le rôle et la place des normes en droit de l’urbanisme, op. cit., p. 80 ; v. aussi, R. NOGUELLOU, La loi Climat et résilience et le droit de l’urbanisme : le zéro artificialisation nette, AJDA, 2022, p. 160. 6 J.-F. STURILLOU, L’intégration des préoccupations environnementales dans les documents de planification urbaine L’apport de la loi Grenelle II, RDA, 2012, p. 872. 7 Loi n° 2014-366 du 24 mars 2014 pour l’accès au logement et un urbanisme rénové (JORF n°0072 du 26 mars 2014) ; v. aussi sur ce point, P. BILLET, Loi ALUR et lutte contre l’étalement urbain, JCP A, 15 septembre 2014, n°2259 ; J.P. LEBRETON, La planification urbaine dans la loi ALUR, AJDA, 2014, p. 1088 8 Art. L. 122-1-5 IX du Code de
l’urbanisme. 68 153.
Cependant, le DAAC et les orientations en matière de densité ne sont opposables au PLU que dans un rapport de compatibilité, ce qui limite le caractère contraignant de ces dispositions et prive d’effet utile le recours à la dérogation individuelle. Autrement dit, les assouplissements générés par ce rapport normatif apparaissent suffisants pour amortir les éventuelles dissonances entre le DOO du SCOT et les autres règles d’urbanisme. La dérogation paraît donc, une fois encore, inutile. 154. Cette solution s’explique par le rôle de « pivot » que joue le SCOT. Devant intégrer une large diversité de documents périphériques au droit de l’urbanisme, il a vocation à s’imposer aux documents d’urbanisme inférieurs et à certaines décisions administratives. Or, comme l’ont indiqué Pierre Soler Couteaux et Jean-Philippe Strebler1, cette situation doit aussi être lue à l’aune des exigences de la décentralisation et notamment du principe de libre administration des collectivités territoriales2. Ce principe interdisant toute « tutelle » d’une collectivité sur une autre, le SCOT ne peut pas être trop prescriptif. C’est également ce qui explique le recours à la notion de compatibilité, celle-ci offrant une marge de manœuvre pour retranscrire ces orientations les plus prescriptives. 155. En outre, les normes issues du PADD des SCOT – mais aussi PLU – ayant une vocation principalement politique, elles n’accueilleront pas de dérogations. Bien que disposant d’une valeur juridique puisque leur altération peut entraîner la modification ou la révision des documents d’urbanisme3, ces normes demeurent suffisamment plastiques pour s’accommoder de distorsions ponctuelles, seule l’atteinte à leur économie générale ou à leurs « orientations »4 fondamentales nécessitant leur révision. Dès lors, la dérogation individuelle sera absente. 156. Enfin, l’analyse de la normativité du SCOT ne semble pas remise en cause par la récente réforme de ce document. Si l’ordonnance du 17 juin 2020 en simplifie le contenu avec, notamment, le passage de 11 à 5 sous-sections au sein du DOO, cette réorganisation ne concerne pas la densité normative de ses orientations et objectifs. Restructuré autour de trois grands blocs thématiques (les activités économiques, les principaux lieux de vie urbaine et leur accès, ainsi que la transition écologique et énergétique5), ce document reste soumis à un rapport de compatibilité ou de prise en compte, ce qui exclut toute forme de dérogation.
P
. SOLER-COUTEAUX
et J
.-
P.
STRE
B
LER, La
hiér
archie des normes applicables aux documents d’urbanisme : rationalisation
à défaut de (forte) réduction... mais avec une effectivité améliorée, RDI, 2020, p. 509. 2 Art. 72 et s. de la Constitution. 3 Art. L. 143-29 et s. du Code de l’urbanisme pour les SCOT et L. 153-31 et s. du même Code pour les PLU. 4 Par exemple, art. L. 153-31 et s. du Code de l’urbanisme pour les PLU. 5 Par ailleurs, le DOO peut aussi contenir deux blocs spécifiques à certains enjeux territoriaux pour les territoires concernés par la loi Montagne et la loi Littoral. 157. Synthèse. De ces développements, il apparaît que la dérogation n’est véritablement utile que pour aménager les normes impératives disposant d’un certain degré de coercition. Ces deux éléments sont cumulatifs puisqu’une norme permissive dispose d’un aménagement ab initio et que les normes impératives relevant du droit souple disposent, pour leur part, d’un degré de précision, et donc de coercition, trop faible pour recourir à la dérogation. En d’autres termes, il est nécessaire que la règle de droit entraîne, de façon impérative, un certain degré de contrainte pour que la dérogation soit nécessaire1. En somme, « il ne peut y avoir de dérogation là où le législateur n’a pas prévu d’obligation »2. 158. Ainsi, le contenu et l’application de la norme ont une importance prépondérante dans l’identification du champ d’expression de la dérogation individuelle. Toutefois, la teneur de la règle n’est pas le seul élément de nature à caractériser l’existence de la dérogation : elle doit aussi être en rupture avec la règle de droit (§ 2).
§ 2 – La dérogation, un procédé en rupture avec la règle de droit
159. Le critère de la rupture avec la règle de droit générale3, bien qu’étant un élément essentiel de la notion de dérogation, n’est que peu abordé par la doctrine. Face à la diversité des mécanismes susceptibles d’opérer une mise à l’écart du droit applicable, il donc est nécessaire de caractériser la nature de cette opération (A) pour en lever les expressions, même les plus discrètes (B). A) La nature de la mise à l’écart d’une règle de droit, une superposition partielle 160. La nature de la « mise à
l’écart »
du droit
. Dans leurs définitions respectives, Gilles Godfrin4 et Jean-François Inserguet5
précisent
que la dérogation
« é
cart
e » la règle
qui est
thé
oriquement opposable. On retrouve aussi cette expression de mise à l’écart dans la définition proposée par le Dictionnaire du droit de l’urbanisme 6 ou, plus généralement, dans celle donnée par le dictionnaire juridique dirigé par Gérard Cornu7. Or, le verbe « écarter » n’apporte qu’assez peu de précisions et offre diverses interprétations. S’agit-il d’une simple suspension temporaire,
d’une
1 M. TROPER, Le droit et la nécessité, PUF, 2011, spé p. 7 et s. 2 Y. STURILLOU, concl. ss. CE, 6 mars 2009, Syndicat national des Ingénieurs de l’Industrie et des Mines (SNIIM) n° 309922, p. 11. 3
Cette idée est notamment avancée par Aude Rouyère qui évoque une « rupture » de la déduction normative par la dérogation, v. A. ROUYERE, Recherche
sur la dérogation en
droit public, op. cit.
, p
. 253
. 4 G. GODFRIN, Dérogation d’urbanisme : la levée d’un tabou?, op. cit. 5 J.-F. INSERGUET, L’écriture des « règles alternatives » ou « exception »? Fiche 6 – Problèmes généraux, op. cit. 6 « Dérogation » in Y. JEGOUZO et N. FOULQUIER, Dictionnaire du droit de l’urbanisme, Dictionnaire pratique, op. cit., p. 363. 7 « Dérogation » in G. CORNU et al., Vocabulaire juridique, op. cit. 70 abrogation, ou encore d’une trans
gression « légalement autorisée » pour un cas d’espèce précis? Les travaux de la doctrine restent évasifs sur la question. 161. L’absence de précision jurisprudentielle. De la même manière, les décisions rendues par le juge ne sont pas plus aidante. Selon les termes de la commissaire du gouvernement Suzanne Von Coester, il s’agirait d’une « exemption »1. Néanmoins, il semble que peu d’attention soit portée à cette opération et il convient par conséquent de rester prudent. Trois hypothèses recoupant les situations où il peut être mis fin à l’application d’une règle de droit doivent être envisagées : la violation (1), l’abrogation (2) et la superposition (3).
1) La violation
162. La dérogation peut apparaître comme une technique du droit qui organise et autorise sa propre transgression2. Celle-ci s’analyserait alors comme une violation consentie de la norme, une forme de dérogation-infraction3. 163. Par la mise à l’écart de la règle de droit, la dérogation individuelle malmène en effet certains principes cardinaux du droit administratif tels que le principe de légalité4. On comprend sans peine la contradiction et l’impression de rupture qu’engendre la dérogation face au fonctionnement d’un ordre juridique attaché au principe de légalité et à la hiérarchie des normes. On retrouve, en partie, cette idée chez Aude Rouyère pour qui la dérogation « rompt la linéarité d’un modèle purement déductif de l’enchaînement normatif »5. Par ailleurs, le terme de violation est repris de façon incidente par certains membres de la doctrine. C’est le cas de Louis-Jérôme Chapuisat qui qualifie certaines dérogations « d’infraction »6. Ainsi, cette remise en cause semble pouvoir survenir d’une transgression autorisée par la règle elle-même. 164. D’apparence, si les expressions d’infraction ou de violation semblent pouvoir être retenues pour qualifier cette mise à l’écart de la règle, leur admission par le droit lui-même va rendre leur emploi erroné. D’une part, il y a dans cette approche un contresens car il est difficilement concevable de voir une « violation » là où la transgression est « autorisée » par la dérogation. La contradiction sémantique qui associe autorisation et violation paraît donc peu propice à l’existence
1 S. VON COESTER, concl. ss. CE, 6 juin 2014, SNC Les Couteliers, n° 371097. 2 H. KELSEN, Derogation, op. cit., spéc. p. 345. 3 Expression empruntée à L.-J. Chapuisat in, Le droit administratif à l’épreuve de l’urbanisme dérogatoire, op. cit. 4
Ce constat est confirmé par Yves Jégouzo, selon qui la dérogation remet en cause le principe de légalité, v. Droit
de
l'urbanisme,
Di
ctionnaire
pratique
,
Le
Moniteur,
coll
.
Dictionnaire
, 2ème
édition, 2013
,
p
. 269 (
analyse
qui disparaît dans la 3ème édition de ce dictionnaire
). 5 A. ROUYERE, Recherche sur la dérogation en droit public, op. cit., p. 253
; cette analyse fut auparavant portée par P.-A. LECOQ selon qui les dérogations : « sont des violations caractérisées de la règle, ce que l’administration sait », in, Le pouvoir de dérogation de l’administration, op. cit., p. 282. 6 L.-J. CHAPUISAT
,
Le droit administratif à l’épreuve de l’urbanisme dérogatoire, op. cit., p. 14 et s. 71 d’une véritable violation de la règle à laquelle on déroge1. En d’autres termes, la notion d’autorisation efface l’idée de violation2. 165. D’autre part, sur le fond, la dérogation n’est pas assimilable à une violation. À ce titre, la jurisprudence interdit depuis longtemps l’usage de la dérogation comme moyen de régularisation d’une violation3. Ainsi, la dérogation préexiste à la seconde. Élaborée en amont de toute idée de violation de la règle, la dérogation ne propose qu’une adaptation déjà prévue par le droit. Il s’agit donc d’une technique préalablement déterminée conduisant à un aménagement du droit au regard de ce que celui-ci autorise, mais en aucun cas d’une violation4. 166. La relation entre dérogation et régularisation, une illustration de l’exclusion de la violation. En écartant l’hypothèse de la violation, la dérogation ne peut être associée à la régularisation, mais reste – parfois – un outil au service de cette dernière. La régularisation, qui peut se définir comme une action correctrice à portée rétroactive 5, a vocation, selon Jean-Jacques Israël, à « faire triompher, même tardivement, la règle de droit »6. Mais si la régularisation suppose « un triomphe » du droit, c’est qu’initialement celui-ci fut défait. En d’autres termes, la régularisation présuppose la présence d’une irrégularité surmontable7 (le cas échéant, au moyen d’un permis modificatif8), alors que la dérogation a, pour sa part, vocation à dépasser les limites du droit commun9. 167. Leur objet n’est donc pas le même, la dérogation ayant le plus souvent vocation à surmonter une potentielle irrégularité au nom d’un intérêt supérieur a celui que le droit commun entend faire valoir10 (application a priori) là où la régulation a, par une approch rétroactive, pour objet de réparer ce qui a été mal fait – et qui est réparable (!). En ce sens, l’utilisation de la dérogation 1 A. ROUYERE, Recherche sur la dérogation en droit public, op. cit., p. 91-92 et p. 252 et s. 2 Id., selon cette auteure, « la dérogation est un procédé de contournement de la règle applicable, prévu et, dans une certaine mesure, aménagé par cette dernière. La solution dérogatoire n’est donc pas illégale, sous réserve évidemment des conditions de forme et de fond », p. 91-92. 3 CE 3 mai 1974, Barthes, n° 87411, Rec. Leb. 1217 ; La dérogation ne peut être accordée que lors de la délivrance du permis de construire et ne peut donc avoir pour effet de régulariser une construction illégalement édifiée. Dans le même sens, CAA de Bordeaux, 11 juill. 2013, SCI Les Chevêches, n°11BX02706. 4
J.-P. GILLI, H. CHARLES et J. de LANVERSIN, Les grands arrêts du droit de l’urbanisme, Paris, France, Dalloz, 1996, p. 114 et s., spé p. 124. 5 É. BARBIN, La régularisation des actes administratifs, Étude de droit comparé franco-brésilien, LGDJ, 2023, spé. p. 7 et s. ; v. aussi sur ce point, W. GREMAUD, La régularisation en droit administratif, Dalloz, 2021 ; J.-J. ISRAËL, La régularisation en droit administratif français : étude sur le régime de l’acte administratif unilatéral, Paris, France, LGDJ, 1981 ; É. LANGELIER et A. VIROT-LANDAIS, Mérites et limites du recours à la régularisation des actes viciés, JCP A, 2015, n°2245. 6 J.-J. ISRAËL, La régularisation en droit administratif français, op. cit., p. 1. 7 W. GREMAUD, La régularisation en droit administratif, op. cit., p. 33 et s. ; É. BARBIN, La régularisation des actes administratifs, Étude de droit comparé franco-brésilien op. cit. 8 Sur les récents ajustements du régime du permis modificatif, v. O. LE BOT, Le nouveau permis de construire modificatif, RFDA, 2022, p. 889. 9 Dans le même sens, J.-H. STAHL, selon qui il
s’agit « de
faire
le
départ entre
ce qui, en termes de
lég
alité, peut être
réparé
et ce qui ne
le peut
pas
», in,
«
Mutations »,
Dr
. adm., Repère 8, 2020 ; C. BEAUFILS et C. MALVERTI, Contentieux de l’urbanisme : parer les morts, réparer les vivants, AJDA, 2020, p. 2016.
10 Sur la gestion des intérêts urbain par la dérogation, v. Partie II, Titre 1, Chapitre 1. 72 pour couvrir une irrégularité revient le plus souvent à détourner le dispositif dérogatoire de
sa
vocation initiale. Il n’est pas anodin de noter qu’à ce titre, contrairement à la dérogation, la régularisation s’inscrit le plus souvent dans le cadre d’une démarche contentieuse1, le juge invitant l’administration, lorsque cela est possible, à régulariser l’acte contesté. Or, dans une telle approche si la dérogation peut être mobilisée afin de « sauver » l’acte irrégulier – ce dernier bénéficiant alors de la dérogation pour purger l’irrégularité – cette pratique revient, d’une part, à détourner la dérogation de son objet originel et n’est, d’autre part, possible que dans le cadre de ce que la dérogation permet. Ainsi ces deux notions n’entérinent pas le même rapport avec la règle de droit. Divers exemples, en droit de l’urbanisme comme dans d’autres branches du droit administratif, en offrent la démonstration. 168. En premier lieu, on retrouve cette distinction au sein de l’article L. 171-7 du Code de l’environnement. Celui-ci dispose que lorsque des installations ou ouvrages exploités « sans avoir fait l’objet de l’autorisation (...) ou de la déclaration requis en application du présent Code (...) l’autorité administrative compétente met l’intéressé en demeure de régulariser sa situation (...) ». En outre, cette disposition connaît une déclinaison sur le versant contentieux avec l’article L. 181-18 du même Code, cette seconde disposition prévoyant que le juge administratif, lorsqu’il est saisi de conclusions dirigées contre une autorisation environnementale et après avoir constaté que les autres moyens ne sont pas fondés, peut « surseoir à statuer jusqu’à l’expiration du délai qu’il fixe » afin de demander une régularisation de l’acte contesté2. À la lecture de ces dispositions, l’alternative est très claire, voire presque binaire : soit le vice est régularisable – et éventuellement, de façon (très) discutable, par l’octroi d’une dérogation – et la décision est validée ; soit il ne l’est pas et la seconde fera l’objet d’un rapport en manquement et de sanction (L. 171-7 et L. 171-8 du Code de l’environnement) ou sera annulée (L. 181-18 du Code de l’environnement). Quelle que soit l’alternative, la méconnaissance de la règle de droit reste proscrite. En d’autres termes, la violation constitue une hypothèse distincte de la dérogation (et la régularisation). C’est aussi le sens d’un avis rendu par le Conseil d’État, celui-ci considérant que le sursis à statuer prévu à l’article L. 181-18 du Code de l’environnement « a pour objet » de corriger « le vice dont est entachée la décision attaquée »3. 169. Dans ce cadre, la dérogation n’est donc qu’une option de la régularisation ; mais cet usage se situe à rebours de sa nature dans la mesure où le vice à régulariser doit impérativement s’insérer dans son champ d’application. Cette situation n’étant, au demeurant, pas sans poser d’épineuses
1 É. BARBIN, La régularisation des actes administratifs, Étude de droit comparé franco-brésilien, op. cit., p. 11 et s. ; W. GREMAUD, La régularisation en droit administratif, op. cit., p. 33 et s. 2 Art. L. 181-18 (I) 2° du Code de l’environnement. 3 CE, 22 mars 2018, Association Novissen et autres, n° 415852, Rec. Leb. ; AJDA, 2018, p. 655 ; ibid. p. 1451, note T. Pouthier. 73 questions quant à la procédure applicable (la dérogation n’aura pas fait l’objet d’une participation du public ; les avis nécessaires ont-ils tous été demandés ;
l’autorité compétente est-elle la même
, etc.).
En d’autres termes, si ces deux éléments se superposent à la marge, la dérogation n’est qu’une hypothèse spécifique de régularisation. 170. Le droit de l’urbanisme ne dit pas autre chose. En ce sens, l’article L. 600-5-1 du Code éponyme autorise le juge à surseoir à statuer afin de permettre à l’autorité administrative de régulariser un vice affectant une partie ou la totalité du permis initial. À l’issue du délai laissé par le juge, ce dernier est invité à tirer les conséquences d’une éventuelle régularisation – y compris par dérogation –, soit par un rejet de la requête si l’administration a purgé l’irrégularité, soit par l’annulation du permis1. Le permis modificatif ou le permis de régularisation confirme aussi cette distinction2. Un temps interdit3, cette pratique est, depuis une récente décision « Lapeyre » du 17 décembre 20204, de nouveau admise, les juges ayant autorisé la régularisation d’un projet par l’octroi d’une dérogation individuelle. Si cet enchaînement des deux procédés témoigne de leur indépendance, il aboutit aussi à effacer de façon rétroactive la présence d’une illégalité (régularisable5). En définitive, si la régularisation opère « une correction »6 pouvant parfois prendre la forme d’une dérogation, ces notions restent hermétiques à toute admission de la violation de la règle.
2) L’abrogation
171. L’abrogation s’entend génériquement comme la suppression d’une règle de droit7. Le droit positif, et plus précisément l’article L. 240-1 du CRPA ne laisse, lui aussi, aucun doute : l’abrogation d’un acte est constituée par « sa disparition juridique pour l’avenir ». 1 C. BEAUFILS et C. MALVERTI, Contentieux de l’urbanisme : parer les morts, réparer les vivants, op. cit. ; v. aussi, B.
ILLER, Les décisions régularisées, 2019, p. 791 2
Pour le permis de régularisation, v. Art. L. 600-5 et L. 600-5-1 du Code de l’urbanisme
;
v. aussi sur ce point,
L
. SANTONI, La régularisation est la règle, l’
annul
ation
l’exception
, Constr.-Urb., no 11, novembre 2020, p. 23 ; X. COUTON, Régularisation d’une construction non conforme ; À chaque situation son régime, Constr.-Urb., n°1, janvier 2021, p. 17 3 Dans le même sens, CE, 3 mai 1974, Barthes, n° 87411, Rec. Leb. 1217, op. cit. ; CAA de Bordeaux, 11 juill. 2013, SCI Les Chevêches, n°11BX02706, op. cit. 4 CE, 17 décembre 2020, SCCV Lapeyre, n° 432561, Rec. Leb. ; AJDA 2020. 2524 ; v. aussi P. SOLER-COUTEAUX, Une mesure de régularisation peut prendre la forme d’une dérogation, op. cit. ; Y. OURO-DJERI, Dérogations aux règles d’urbanismes et respect de l’objectif de mixité sociale, Droit de l’immobilier et urbanisme, n°3, 1er mars 2021, p. 3 5 Sur l’impossibilité de régulariser l’ensemble des irrégularités, v. l’étude de William Grémaud, selon qui la notion de régularisation « doit être conçue de manière restrictive ». Tout constat de l’irrégularité « n’ouvre pas la voie à la régularisation », in, La régularisation en droit administratif, op. cit., p. 39 ; pour un exemple récent en urbanisme, v. CE, 6 oct. 2021, Sté Maresias, n° 442182, Rec. Leb. ; Constr.-Urb. 2021. Com. 127, obs. L. Santoni. 6 J.-J. ISRAËL, La régularisation en droit administratif français, op. cit., p. 9 7 Par exemple « abrogation » in S. GUINCHARD et T. DEBARD, Lexiques des termes juridiques 2022-2023, op. cit. ; Cette approche est partagée par l’ensemble de la doctrine. Voir sur ce même point le dictionnaire juridique, qui définit l’ab
ation comme une « suppression, par une nouvelle disposition d’une règle », G. CORNU et al., Vocabulaire juridique, op. cit. 172. La dérogation : une abrogation partielle et implicite?
Certains auteurs rattachent la dérogation à l’abrogation. Le plus célèbre d’entre eux, Hans Kelsen, évoque l’idée d’une abrogation partielle de la norme générale par la dérogation1. Selon lui, la dérogation altère la validité de la norme générale. Dans cette perspective, la dérogation constitue l’abrogation de la validité d’une norme valide par une autre norme. Cette abrogation n’est toutefois pas complète, la dérogation ne faisant qu’altérer à la marge le champ d’application de la règle générale. Cette dernière s’efface, dans certaines circonstances et pour certains cas. La dérogation n‘aboutit donc pas à une abrogation totale. 173. Cette abrogation serait aussi implicite. Définie comme étant l’intervention d’un texte qui « se borne à édicter une règle de droit qui se révèle inconciliable avec des dispositions en vigueur »2, l’abrogation implicite « se déduit de l’incompatibilité entre la loi ancienne et la loi nouvelle »3. Ainsi, par le « seul effet de l’intervention du nouveau texte »4, la norme initiale est totalement ou partiellement abrogée. Cette forme d’abrogation répondrait pleinement à la situation de la dérogation. En effet, dans le cadre de la dérogation, une règle habilite l’administration à s’écarter de ce qui est autorisé. Le contenu de cette habilitation est donc, par définition, incompatible avec celui de la norme générale5. On retrouve aussi cette idée chez Sébastien Ferrari pour lequel l’abrogation implicite est susceptible d’intervenir dans quatre hypothèses : la désuétude, la péremp tion, la caducité et le jeu du principe Lex posterior derogat priori. Détaillant cette dernière hypothèse, celui-ci indique alors que, dans ce cadre, l’abrogation implicite résulte « nécessairement » de la « volonté (...) de l’auteur de la norme nouvelle de mettre fin aux effets de la norme ancienne »6. Cette situation semble donc correspondre à la dérogation. Toutefois, bien que soutenue par certains7, la dimension abrogatoire de cette opération reste discutée par d’autres8 et n’emporte pas notre conviction. En effet, en cas d’annulation de la dérogation, la norme de droit commun réapparaît, ce qui signifie que celle-ci n’a jamais véritablement disparu. Ce retour du droit commun nous conduit donc à constater que l’on a ici imbriqué deux normes, la règle de principe étant seulement mise à l’écart au profit de la règle produite par la dérogation. Il est donc davantage question de superposition que d’abrogation.
1 H. KELSEN, Derogation, op. cit. 2 S. FERRARI, De l’art du trompe-l’œil : l’abrogation implicite de la loi par la Constitution au service d’un continuum constitutionnel, RFDC, vol. 83, n°3, 2010, p. 505. 3 B. PETIT, Introduction générale au droit, PUG, 2016, p. 50. 4Id. 5 Sur les normes d’habilitation et la dérogation Cf. infra. 6 S. FERRARI, De l’art du trompe-l’œil : l’abrogation implicite de la loi par la Constitution au service d’un continuum constitutionnel, op. cit., p. 508. 7 Dans le même sens P.-A. LECOCQ, Le pouvoir de dérogation de l’administration, op. cit., notamment p. 67 et s. ; v. aussi sur ce point B. PETIT, Introduction générale au droit, op. cit., p. 50. 8 M. CARPENTIER, Kelsen on Derogation and Normative, Conflicts An Essay in Critical Reconstruction, Die Reine Rechtslehre auf dem Prüfstand ory of Law: Conceptions and Misconceptions, Steiner Verlag, 2020, p. 126. 3)
La
superposition 174. À l’instar de Florence Leurquin-de-Visscher, nous ne pouvons que constater que la mécanique dérogatoire engendre l’existence de « deux règles juridiques opposées »1 n’emportant pas la disparition de l’une d’entre elles, mais leurs hiérarchisations : la règle spéciale s’applique alors de façon prioritaire, comme une exception, et met « à l’écart » le principe. Dans cette configuration, le mécanisme dérogatoire fait donc primer une norme sur une autre, cela afin de régir différemment une situation imprévue. Cette situation a pour conséquence de déposséder la règle de principe « du droit de régir comme elle l’entend une partie de son hypothèse pour le motif qu’une autre règle est présente dans une autre solution : la solution dérogatoire »2. Relevée aussi par Pierre-André Lecoq qui constate que la dérogation « laisse subsister la loi antérieure [là où] l’abrogation l’annule »3, cette mise à l’écart du droit commun se décline sur deux versants : de manière ponctuelle (a) ou récurrente (b). a) L’hypothèse d’une superposition ponctuelle 175. Dans cette perspective, il n’est dérogé à la règle principale que pour une situation particulière, à un moment donné. Tel est le cas, par exemple, lorsqu’une construction a été édifiée à titre dérogatoire et que les travaux ultérieurs doivent être effectués au regard du droit positif (le droit commun). La règle étant seulement écartée durant un certain temps, elle reste susceptible de réapparaître ultérieurement4. En ce sens, et au-delà du droit de l’urbanisme, l’arrêt du Conseil d’État précité « Société Maillard »5 en est la preuve puisqu’ la suite de l’annulation de la dérogation, le droit commun retrouve sa pleine application et il devient alors nécessaire de régulariser la situation.
| 5,004
|